从高原到云端:一个青海少年的AI农业创业之路

从高原到云端:一个青海少年的AI农业创业之路

“我曾翻越二十公里山路去上学,如今,我的代码正飞越万亩农田。”

 

一、高原的孩子,心里装着整个世界

 

我出生在青海的一座山村。村子不通公交,家到镇上中学要走两个多小时——二十余公里的崎岖山路,雨天泥泞,冬天结冰。书包里除了课本,还有母亲塞进去的馍馍和咸菜。

 

但山再高,也挡不住一颗想看世界的心。

 

从小,我痴迷历史与文学。《史记》里那些金戈铁马的故事,《红楼梦》中细腻入微的人情冷暖,让我在煤油灯下读到深夜。我内心敏感,常因一片云影掠过麦田、一声鹰啸划破长空而思绪万千。那时的我,以为人生只有两条路:要么走出高原,要么被高原埋没。

 

 

直到村里通了网。

 

那一年,我15岁。第一次用手机连上4G信号,点开一个叫“Python教程”的视频,从此命运悄然转向。

 

二、代码,是我翻山越岭的新脚力

 

高中三年,我白天上课,晚上自学编程。没有电脑,就用二手安卓机敲代码;没有老师,就靠B站、GitHub和Stack Overflow。我从 print("Hello, World!") 开始,一步步学完Python基础,又啃下HTML、CSS,做了人生第一个静态网页——一个介绍家乡油菜花海的小站。

 这张图片呢不是我写的第一个网页是我最近写的,因为那个网页是很久很久以前的了已经找不到相关图片

高考后,我被江苏一所高校录取。很多人问我:“你这个专业,怎么还整天写代码?”  

 

其实,我从未把自己框在专业里。课堂上我认真学专业内容,课余时间却泡在图书馆和开源社区,一头扎进计算机的世界。

 

 

 

大学这一年半,我如饥似渴地自学:

 

 

- 用Rust写系统工具,追求极致性能;  

- 用Go构建微服务,体会并发之美;  

- 用C++优化算法,理解内存与指针的舞蹈;  

- 用JavaScript做前端交互,让数据“活”起来。

 

 

 

 

有趣的是,我的专业反而给了我独特视角——我开始思考:如何用AI保障从田间到餐桌的安全? 而第一步,就是守护好源头的农田。

 

当我第一次跑通一个CNN模型识别手写数字时,我仿佛看到了小时候在田埂上辨认青稞与杂草的眼睛——原来机器也可以“看懂”世界。

 智慧农场的模拟 中间那一块可以换成实际的模型

 

三、校园里的农业梦:用AI为土地“把脉”

 

虽然还在读大二,但我已经把创业的种子种在了江苏的大学校园里。  

 

 

 

 当时听说成都那边有可以合作的机会,想都没想就直接去了,可惜合作还是没谈成

不是因为急于变现,而是因为心里放不下家乡的那片高原农田。

 第一次到赚不少钱,于是我就养了一只小猫(我已经搬到学校外面了)

        跟兄弟们一起奋斗的地方

监测害虫的 一种算法

 

 

           

 

每次假期回家乡,看到老乡们顶着烈日,在田里一棵棵检查病虫害,我就揪心——效率低、误判多,等发现时往往已大面积感染。我想:为什么不能让AI代替人眼?

 

于是,我开始了我的创业之路,拉上几位志同道合的同学(有学计算机的,也有像我一样“跨界”的),正式启动“慧农”项目。目标很明确:开发一个轻量级、高精度、可端侧部署的作物病虫害检检测系统加智能农业管理平台,未来能跑在无人机或巡检机器人上,实时守护农田。出乎意外的是,我们的理论模型效果并不是很差,可以说是具体的行业换数据集训练就可以。

 

技术攻坚:小模型,大能量

 

我选择基于 Vision Transformer(ViT) 架构进行轻量化改造,结合知识蒸馏与剪枝技术,最终设计出一个<50MB的模型。关键成果如下:

 

 

- ✅ 在 PlantVillage 数据集上训练,1小时内收敛,准确率达99.44%;  

- ✅ 推理时在 RTX 5070 显卡上 GPU占用率 ≤ 40%,内存峰值 < 2GB;  

- ✅ 支持 ONNX 格式导出,可无缝部署到 Jetson Nano、树莓派甚至国产边缘芯片;  

- ✅ 未来考虑集成 YOLOv8s (或其他轻量级模型)作为检测头,实现“定位+分类”一体化,支持30+常见作物病害。 

 

然而,作为传统高校,我的学校似乎并不怎么对我的研究方向感兴趣,并未给我提供实质性的帮助。由于需要实际验证,都知道困难重重,实地验证所需要的数据难以采集。这个任务,成了当务之急。

 

四、时代在召唤:农业智能化不是梦

 

2026年中央一号文件明确提出:“加快发展智慧农业,推进农业全产业链数字化转型”。这不仅是政策红利,更是时代赋予我们这一代“新农人”的使命。

 

我不再是那个背着书包翻山越岭的少年。  

现在的我,白天上专业课,晚上在调试模型;  

 

一边学着“理论安全”,一边写着“田野里的算法”。  

我知道,真正的战场在高原的田野里——而我,正在为那一天做准备。

 

五、致所有不甘平凡的你

 

如果你也来自小城、乡镇、山村;  

如果你的专业不是计算机,却依然热爱代码;  

如果你相信技术不该被标签定义,梦想也不该被出身和成绩限制——

 

请相信:你的根,正是你最大的优势。

 

城市的孩子学AI是为了“创新”,而我们学AI,是为了“生存”与“尊严”。这份紧迫感,会让我们走得更远。

 

六、未来:继续深耕,不负土地

 

接下来,我计划:

- 暂不开源,后续的相关研究完成,等论文发表再决定是否开源;

- 构建多作物病虫害增量学习框架(随用随练,根据不同地方的不同环境 训练不同的模型 在当地使用);

- 探索“视觉+气象+土壤”多模态融合预测;

- 争取暑期机会,和附近农场合作采集数据;

- 毕业后返乡,把技术真正扎进泥土里。

 

我的梦想不大:让每一亩农田,都有AI守护。

 

“科技不应只属于硅谷和中关村,它也该长在田里、果园中、沟壑的泥土上。”  

—— 一个在江苏读大学、日夜写代码的少年,2026年春于校园

 

如果你也被这个故事触动,欢迎点赞、评论、转发。  

也欢迎同行交流技术细节(私信或留言),一起为乡村振兴添砖加瓦!

Read more

Mac M系列芯片适配:mlc-llm与llama.cpp对比

Mac M系列芯片适配:mlc-llm与llama.cpp对比 在大语言模型(LLM)逐步从云端走向本地终端的今天,如何在消费级设备上高效运行数十亿参数的模型,成为开发者和研究者共同面对的挑战。苹果自推出搭载M系列芯片的Mac以来,其基于ARM架构的统一内存架构(UMA)与强大的GPU性能,为本地化推理提供了前所未有的硬件基础。然而,由于主流深度学习生态长期依赖CUDA,而Mac缺乏NVIDIA GPU支持,使得多数框架难以直接发挥其全部潜力。 在此背景下,mlc-llm 与 llama.cpp 脱颖而出——它们不依赖传统深度学习运行时,而是通过底层优化,在Apple Silicon上实现了令人惊喜的推理效率。两者路径迥异:一个走“编译驱动、GPU加速”的技术路线,另一个则坚持“极简主义、CPU优先”的哲学。究竟谁更适合你的使用场景?本文将深入剖析二者在Mac平台的技术实现、性能表现与适用边界。 技术内核解析:两条不同的优化路径 mlc-llm:用编译器挖掘Metal的极限算力 mlc-llm并非简单的推理引擎,它本质上是一个面向大模型的端到端编译系统。其核心思想是利用TV

Qt Creator配置AI编程插件GitHub Copilot

Qt Creator配置AI编程插件GitHub Copilot

第一步:GitHub Copilot插件安装 QtCreator18.0为例,点击左侧Extensions菜单,在上方搜索栏搜索 GitHub Copilot, 然后点击右上角Active启动后重启QtCreator即可完成该工具安装. 第二步:copilot.vim 环境配置 去GitHub下载copilot.vim压缩包:copilot.vim。下载地址:https://github.com/github/copilot.vim 随后解压到自定义位置。 将其目录下.\dist\language-server.js地址填入设置的Path to language-serverjs项。 第三步:安装Node.js 去Node.js官网下载并安装node.js:node.js官网。 同样将node.exe地址链接到设置的Node.js path项。下载地址:https://nodejs.org/zh-cn 第四步:

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程 【免费下载链接】node-llama-cppRun AI models locally on your machine with node.js bindings for llama.cpp. Force a JSON schema on the model output on the generation level 项目地址: https://gitcode.com/gh_mirrors/no/node-llama-cpp node-llama-cpp是一个基于llama.cpp的Node.js绑定库,让你能够在本地机器上运行AI模型,并在生成级别强制模型输出符合JSON模式。本文将为你提供Windows、Linux和Mac全平台的安装与配置教程,帮助你快速上手这款强大的AI工具。 一、准备工作 在开始安装node-llama-cpp之前,请确保你的系统满足以下要求:

vscode copilot在win10 WSL2环境无法使用的问题

vscode copilot在win10 WSL2环境无法使用的问题

问题描述 问话会进入chat初始化过程 等了一段时间就说 retry connection 重新reload window会报:Chat took too long to get ready. Please ensure you are signed in to GitHub and that the extension GitHub.copilot-chat is installed and enabled. 解决办法 回退Copilot版本 参考这位老哥解决方案 :https://github.com/orgs/community/discussions/147219 将Copilot回退回 v1.252.0版本 PS:Vscode插件回退方法 依次点击插件->