致创作的第365天:从Flowable起步,在软考与AIGC中寻找技术人的星辰大海

致创作的第365天:从Flowable起步,在软考与AIGC中寻找技术人的星辰大海

大家好,我是 BOB-wangbaohai。

今天清晨登录后台,收到了一张特别的官方通知卡片。它静静地提醒我:今天,是我成为创作者的第 365 天。

看着屏幕上的“1周年”字样,思绪瞬间被拉回到了去年的今天——2025年4月8日。在那看似平凡的一天里,我敲下了自己博客生涯的第一行文字:《Flowable7.x学习笔记(一)基础环境准备》。

当时的我,只是单纯想把项目中用到工作流引擎的踩坑经验沉淀下来。未曾想,那篇为了“备忘”而写的文章,最终生长成了包含 23篇文章 的专栏,也彻底推开了我技术写作的大门。

回望这 365 天:6个专栏,75个脚印

今天点开后台的“专栏管理”,看着这一行行数据,这 365 天的技术轨迹变得无比清晰。作为一名在日常工作中需要统筹全局的系统架构师,这75篇文章,不仅是技术分享,更是我对自己职业生涯的一次次复盘与死磕。

1. 夯实底座:死磕理论与架构的日与夜 大家如果关注我的专栏,会发现《软考-系统架构师》这个专栏不知不觉已经积累了高达 31篇 文章,是我目前笔墨最重、投入精力最多的地方。

这背后,其实是我真实的备考轨迹。从信息安全五要素的反复背诵(机密性、完整性、可用性、可控性、可追踪性),到案例分析题的拆解,这31篇文章是我在备战软考路上流下的汗水。加上《TOGAF EA架构师备考笔记》和《阿里云ACP云计算备考笔记》,这近50篇文章,见证了我一步步构建、打磨企业级架构思维的过程。把晦涩的理论嚼碎了写出来,本身就是一次痛苦但极度有效的自我重塑。

2. 拥抱变革:在AIGC浪潮中破局 作为技术人,保持对新技术的敏锐度是刻在骨子里的本能。在夯实传统架构基础的同时,我也在努力拓宽自己的技术边界。

《LangChain4j入门实践》的8篇探索,到最近刚刚建立的《Spring AI 官方文档 AIGC入门到实战》,这不仅是博客内容的更新,也是我个人向信通院大模型应用工程师(初级)、智能体开发工程师(中级)迈进的实战记录。在AI席卷一切的今天,我希望自己的架构思维不仅能支撑现在的业务,也能与大模型时代接轨。

这75篇文章背后,是技术人的“时间魔法”

老实说,坚持创作真的很难。

白天,我是系统架构师,时间被各种方案设计、项目排期和无休止的会议切割得支离破碎;下班后,回归家庭,作为丈夫和父亲,陪伴孩子规划幼儿园、小学,和做老师的妻子讨论生活琐事,才是生活的主旋律。

那么,这75篇文章是怎么写出来的? 它们大多诞生在夜深人静的时刻。只有当孩子安稳入睡,家里安静下来,我才能泡上一杯茶,打开熟悉的编辑器,在机械键盘的敲击声中,进入属于我自己的技术心流。

有过思路卡壳的焦虑,有过看着屏幕发呆的疲惫,但每当文章发布后,看到阅读量一点点上涨,或者在评论区看到同行的一句“太感谢了,正好解决了我卡了三天的问题”,那种难以言喻的成就感,足以抚平所有的疲惫。

感谢与展望

今天,借着平台发放「纪念勋章」的机会,给自己做个阶段性的总结。

感谢平台提供的创作土壤,更要感谢每一位订阅我专栏、阅读过我文章的朋友。是你们的每一次点击、点赞和留言,化作了时间的脚印,让我这座小小的里程碑变得坚实而有意义。

365天,75篇文章,这只是一个开始。未来的日子里,我依然会在这里,从系统架构设计、备考心得,再到AIGC的落地实战,继续和大家分享我的技术思考与成长笔记。

希望我们都能在技术的星辰大海里,保持热爱,持续精进,顶峰相见!

最后,留个小互动: 我的《Spring AI》专栏刚刚起步,大家最近在AIGC落地实践中遇到了哪些痛点?或者希望我在后续的软考备考、架构设计专栏中优先分享什么主题?欢迎在评论区告诉我!

—— BOB-wangbaohai 写于 2026年4月8日

Read more

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享 你有没有试过和一个模型聊着聊着,它突然忘了前面说了什么?或者刚聊到关键处,它就卡在“上一句我提到了什么”上?这次我用一张RTX 3060显卡,完整跑通了Meta-Llama-3-8B-Instruct——不是跑个demo,是真正在open-webui里连续对话40轮、处理2700+ token的长文档摘要、边写Python边解释逻辑、还顺手把一段中文技术文档翻译成地道英文。它没断片,没乱序,也没把“用户说的第三点”记成“第二点”。 这不是参数堆出来的幻觉,而是80亿参数在vLLM加速下给出的稳定输出。更关键的是:它真的能在单卡消费级显卡上跑起来,不靠云服务,不靠API调用,所有推理都在本地完成。 下面这篇分享,没有PPT式的技术罗列,只有我真实用下来的观察、踩过的坑、验证过的边界,以及那些“原来还能这样用”的小发现。 1. 为什么选它?一张3060就能跑的“轻量全能选手” 很多人看到“Llama 3”第一反应是:又一个大模型?但Llama-3-8B-Instruct的定位很特别——它不是冲着GPT

【AI绘画】Midjourney进阶:色相详解

【AI绘画】Midjourney进阶:色相详解

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AI绘画 | Midjourney 文章目录 * 💯前言 * 💯Midjourney中的色彩控制 * 为什么要控制色彩? * 为什么要在Midjourney中控制色彩? * 💯色相 * 红 * 橙 * 黄 * 绿 * 蓝 * 紫 * 黑与白 * 💯小结 💯前言 在设计领域中,色相作为色彩的重要维度,直接决定了作品的视觉基调与情感表达。通过对色相的深入理解与灵活运用,设计师可以在作品中精准传递信息,激发观众的情感共鸣。Midjourney 作为一款强大的AI绘画工具,为设计师提供了高效探索色相表现的创作平台,使复杂的色彩控制变得直观且富有创意。 本篇文章将以色相为核心,从色彩心理学与实际应用出发,结合 Midjourney 的提示词设置,详细解析不同色相在设计中的作用与特点。无论是自然主题的绿、蓝,还是富有情感张力的红、紫,每一种色相都在设计中扮演着不可替代的角色。 Midjourney官方使用手册 💯Midjourney中的色彩控制 在 Mi

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

📖 前言 随着 NVIDIA Blackwell 架构的问世,DGX Spark (Personal AI Supercomputer) 将桌面级 AI 算力推向了新的巅峰。这台怪兽级设备搭载了 GB200/GB10 级别的 GPU 和 NVIDIA Grace CPU (ARM64),并运行在最新的 CUDA 13 环境下。 然而,“最强硬件"往往伴随着"最难环境”。由于 Grace CPU 采用 ARM (aarch64) 架构,且 CUDA 13 过于前沿,传统的 PyTorch 安装方法极易失败。 本文将手把手教你如何在这台超级计算机上部署 Stable Diffusion