2026国家自然基金ai声明在哪里写?

2026国家自然基金ai声明在哪里写?

下面图中

根据2026年国家自然科学基金(NSFC)最新要求,‌AI使用声明需在申请书中明确撰写并提交‌,具体位置和撰写方式如下:

声明撰写位置建议

  • 推荐位置‌:将AI使用声明作为独立小节,置于“‌研究方案‌”或“‌研究基础‌”部分之后,也可放在“‌伦理合规与科研诚信‌”相关章节中。
  • 标题建议‌:使用如“‌3.X 人工智能工具使用边界与研究诚信保障策略‌”等清晰标题,便于评审查阅‌4。

声明撰写原则(权威指引)

根据基金委最新导向及多位专家解读,声明应遵循以下原则:

  • 诚实透明,宜粗不宜细‌:无需逐段罗列AI在立项依据、技术路线等各部分的具体使用情况‌610。

整体性说明即可‌:例如:

“本项目申请书的撰写过程中,申请人使用[工具名称,

Read more

我是搞量化AI的,但我为什么劝你一定要关掉“自动交易机器人”?

我是搞量化AI的,但我为什么劝你一定要关掉“自动交易机器人”?

作者:老余捞鱼 原创不易,转载请标明出处及原作者。 写在前面的话:很多市面上充斥着“睡后收入”、“AI自动炒股”的广告,听着很诱人吧?但作为一个在量化圈摸爬滚打多年的人,我要告诉你一个反常识的真相:这些机器人不仅不能帮你赚钱,反而是你亏损的罪魁祸首。今天不聊代码,聊聊为什么在AI时代,你的人脑依然不可替代。 最近朋友圈全是卖“AI炒股机器人”的广告:号称年化100%,解放双手,让你躺着把钱赚了。看得我尴尬症都犯了。 作为一个靠写代码和算法吃饭的人,我今天必须说句得罪同行的话:对于99%的普通投资者来说,全自动交易机器人(Trading Bots)就是一条通往破产的高速公路。 这就好比你还没学会开车,就买了一辆号称能“全自动驾驶”但实际上连红绿灯都分不清的汽车,然后就在高速上睡着了。 真正的交易不是代码的堆砌,而是对市场的洞察 01 机器人的死穴:它看不懂“空气” 你有没有过这种经历:走进一个房间,大家虽然没说话,但你立刻感觉到气氛不对:可能刚吵完架,可能有人在哭。 这就是“

最完整WhisperLiveKit指南:从安装到生产部署的AI语音识别全流程

最完整WhisperLiveKit指南:从安装到生产部署的AI语音识别全流程 【免费下载链接】WhisperLiveKitReal-time, Fully Local Speech-to-Text and Speaker Diarization. FastAPI Server & Web Interface 项目地址: https://gitcode.com/GitHub_Trending/wh/WhisperLiveKit 你是否还在为实时语音转文字的延迟问题困扰?是否需要一个完全本地化部署的解决方案来保护数据隐私?WhisperLiveKit作为GitHub热门的开源项目,将彻底改变你处理实时语音识别的方式。本文将带你从安装到生产部署,掌握这一强大工具的全流程应用。 读完本文,你将能够: * 快速搭建本地语音识别服务 * 根据硬件条件选择最优模型配置 * 实现多语言实时转录与说话人分离 * 部署生产级别的Web应用与Chrome扩展 * 通过Docker容器化实现跨平台部署 为什么选择WhisperLiveKit? 传统的Whisper模型设计用于处理完整语

Claude, Cursor, Aider, Copilot,AI编程助手该选哪个?

2026年,AI编程工具已经非常成熟了。市面上这么多AI编程工具,哪个最好用? 本文选取了当前最具代表性的六款工具:Claude Code、Aider、Cursor、GitHub Copilot、MetaGPT 以及 OpenHands,从技术特性、优缺点及部署门槛进行客观对比。 Claude Code Anthropic 于2025年推出了 Claude Code,这是一款基于命令行的编程智能体工具。它不同于网页版的对话框,而是直接运行在终端中,能够深度理解本地项目结构。最出名的 AI 编程助手,很贵,但一分钱一分货,不得不说它很好用。 通过终端直接通过自然语言操作。它不仅能写代码,还能自主运行测试、解释复杂的架构、甚至执行终端命令来修复错误。其背后依托的是推理能力极强的 Claude 3.5/3.7 Sonnet 模型。 优势: * 推理能力极强:在处理复杂的逻辑重构和长代码理解上,目前处于行业顶尖水平。 * 自主性:

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具 1. 为什么需要本地Copilot工具 在日常编程和工作中,我们经常需要代码建议、文档生成、问题解答等AI辅助功能。虽然云端AI服务很方便,但存在网络延迟、隐私安全、使用成本等问题。基于GLM-4.7-Flash构建本地Copilot工具,可以让你: * 完全离线运行:不依赖网络,响应速度极快 * 数据隐私安全:所有对话和代码都在本地处理 * 定制化能力强:可以根据自己的需求调整模型行为 * 成本可控:一次部署,长期使用,无按次付费 GLM-4.7-Flash作为最新的开源大模型,在代码理解和生成方面表现出色,特别适合作为本地编程助手。 2. 环境准备与快速部署 2.1 硬件要求 为了流畅运行GLM-4.7-Flash,建议准备以下硬件环境: * GPU:4张RTX 4090 D显卡(或同等算力) * 内存:至少128GB系统内存 * 存储:至少100GB可用空间(模型文件约59GB)