CCF-CSP第38次认证第二题——机器人复健指南(满分题解)

题目背景

西西艾弗岛某山脉深处出土了一台远古机器人,具体年代已不可考。初步修缮后,研究人员尝试操控机器人进行些简单的移动。

题目描述

整个实验场地被划分为 n×n个方格,从 (1,1) 到 (n,n) 进行编号。机器人只能在这些方格间移动,不能走出场地范围。 如下图所示,假设机器人当前位于 (x,y),那么接下来可以向周围八个方向跳跃移动(如果目标方格在场地范围内):

若机器人只能跳动不超过 k 步,场地内有多少方格(包括起始位置)可以抵达?

输入格式

从标准输入读入数据。

输入的第一行包含空格分隔的两个正整数 n 和 k,分别表示场地大小和跳动步数。

输入的第二行包含空格分隔的两个正整数 x 和 y,表示机器人的起始位置(保证位于场地内)。

输出格式

输出到标准输出。

输出一个整数,表示 k 步内可以抵达的方格总数。

样例1输入

4 1 1 1 

样例1输出

3 

样例2输入

4 2 1 1 

样例2输出

8 

样例2解释

如下图所示,初始位置、第一步和第二步跳跃抵达的位置总计为 8。

子任务

80% 的测试数据满足:k≤3;

全部的测试数据满足:n、k 均大于 0 且不超过 100。

题解

可以使用BFS或DFS进行搜索。在DFS实现中,步数作为递归函数的参数传递;而在BFS实现中,步数需要作为队列元素的附加参数存储。

实现细节

dx 和 dy 数组分别表示移动方向,st 数组用于记录访问状态,全局变量 cnt 统计已访问节点的数量。需要特别处理边界判断,同时统计的节点数包括所有经过的位置,而不仅仅是终点。

代码

#include<bits/stdc++.h> using namespace std; const int N=110; int n,k,x,y; int a[N][N]; bool st[N][N]; int dx[8]={1,2,1,2,-1,-2,-1,-2},dy[8]={2,1,-2,-1,2,1,-2,-1}; int cnt; void dfs(int x,int y,int num){ st[x][y]=true; cnt++; if(num==k)return; for(int i=0;i<8;i++){ int a=x+dx[i],b=y+dy[i]; if(a<1||a>n||b<1||b>n)continue; if(!st[a][b]){ dfs(a,b,num+1); } } } int main(){ cin>>n>>k>>x>>y; dfs(x,y,0); cout<<cnt; } 

Read more

语音识别库文件 Whisper 支持 CUDA

https://github.com/ggml-org/whisper.cpp/releases 上面是官方下载 Whisper 默认编译是否支持 CUDA? 🎯 直接回答 ❌ 不支持!默认编译只支持 CPU! 需要在编译时显式启用 CUDA 支持才行。 📊 whisper.cpp 的编译选项对比 默认编译(纯 CPU) # 默认编译命令(Linux/Mac) make # 或者 CMake cmake .. cmake --build . --config Release 生成的可执行文件: whisper-server.exe ← 只支持 CPU whisper.exe ← 只支持 CPU main.exe ← 只支持 CPU 特点: * ✅ 编译简单,

Qwen3-VL与Stable Diffusion联动:以文生图+以图生文闭环

Qwen3-VL与Stable Diffusion联动:构建多模态闭环的智能生成系统 在AI内容创作日益普及的今天,一个设计师输入“夕阳下的赛博朋克城市”后,希望看到一幅风格一致、构图合理且可迭代修改的图像——但大多数生成工具只能“一次性出图”,无法理解自己刚生成的画面是否符合预期,更谈不上主动优化。这种割裂感正是当前图文生成系统的普遍痛点:能画,却看不懂自己的画。 而随着Qwen3-VL与Stable Diffusion的深度协同,我们正迎来一种全新的交互范式:模型不仅能根据文字画画,还能“回头看”这幅画,并用自然语言描述它、评价它、甚至基于反馈重新绘制。这不是简单的功能叠加,而是一次从“单向输出”到“双向认知”的跃迁。 多模态闭环的本质突破 传统图文系统往往遵循“用户→文本→图像”的线性路径。一旦图像生成完成,整个流程就戛然而止。即便用户不满意,也只能手动调整提示词再次尝试,缺乏对结果的语义级反刍能力。 Qwen3-VL + Stable Diffusion 的组合打破了这一局限。它的核心价值不在于各自有多强,而在于二者形成了可循环的认知回路: 1.

【机器人】复现 RoboBrain2.0 具身大脑模型 | 统一感知、推理和规划能力

【机器人】复现 RoboBrain2.0 具身大脑模型 | 统一感知、推理和规划能力

RoboBrain 2.0是一个机器人的具身大脑模型,具备统一感知、推理和规划能力; 同时适应对物理环境中复杂的具身任务; 它提供不同版本:轻量级的3B、7B模型和全尺寸的 32B 模型,包含视觉编码器和语言模型。 代码地址:https://github.com/FlagOpen/RoboBrain2.0 论文地址:RoboBrain 2.0 Technical Report 目录 快速了解模型 1、创建Conda环境 2、安装依赖库 3、安装torch 4、模型推理 示例1:图文问答,使用RoboBrain2.0-7B模型,不开思考模式 示例2:图文问答,使用RoboBrain2.0-7B模型,开启思考模式 示例3:图文问答,使用RoboBrain2.0-3B模型 示例4:

全网最强!《机械控制工程/自动控制原理》期末速成课:零基础6小时逆袭90+,含名校真题+学霸笔记,机械/车辆/机器人/自动化专业必看(保过/考研复试)

还在为**《机械控制工程基础》或《自动控制原理》的期末考试发愁?上课听天书,复习没头绪?本视频是专为机械类学子打造的期末速成救命课**!拒绝枯燥推导,用最通俗的语言带你6小时零基础逆袭,不仅包你不挂科,更能冲击高分! 📌 本课程核心覆盖(长尾词埋点): 重点攻克拉普拉斯变换、系统数学模型建立、传递函数求法、时域分析、稳态误差计算、根轨迹绘制法则、频域分析、伯德图(Bode图)画法以及奈奎斯特(Nyquist)稳定性判据等必考难点。无论你是要应付期末大考,还是准备考研复试,这套高分笔记和名校期末真题解析都能帮你精准避坑! 🎓 适用专业(精准人群): 只要你的课表里有这门课,本视频都完美适配!特别适合以下专业的同学: 机械设计制造及其自动化 机械电子工程(机电) 车辆工程 机器人工程 智能制造工程 能源与动力工程 自动化类相关专业 🚀 资料包含: 6小时速成笔记 + 历年名校期末真题库。点赞投币收藏,一起拿下这门“天书”! #机械控制工程 #自动控制原理