FossFLOW:开源等距图表工具,为技术文档注入立体活力!

FossFLOW:开源等距图表工具,为技术文档注入立体活力!
文章简介:FossFLOW是一款创新的开源等距图表工具,专为技术文档设计。它通过立体视角将复杂的系统架构转化为直观的3D图表,支持拖放式操作和离线使用,让技术图表变得生动易懂。无需注册,数据安全存储在本地,并提供JSON导入导出功能。无论是Docker快速部署还是在线体验,FossFLOW都能为架构图、流程图注入立体活力,是提升技术文档表现力的得力助手。

你是否曾经为了绘制清晰的技术架构图或系统流程图而烦恼?是否觉得传统的平面图表难以表达复杂的层次关系?今天,我要向大家介绍一款令人惊艳的开源工具——FossFLOW,它能让你的技术图表瞬间变得立体、生动!

🌟 什么是FossFLOW?

FossFLOW 是一款功能强大的、开源的渐进式 Web 应用(PWA),专为创建精美的等距图表而设计。它基于 React 和 Isoflow(现已 fork 并以 fossflow 名称发布到 NPM)库构建,完全在浏览器中运行,并支持离线使用,让你随时随地都能创作出专业级的技术图表!

github地址:https://github.com/stan-smith/FossFLOW/

在线地址:https://stan-smith.github.io/FossFLOW/

该项目目前在github上已有17k ⭐️star

✨ 主要特性

🎨 立体图表,视觉升级

  • 创建令人惊叹的3D风格技术图表
  • 等距视角让复杂的系统架构一目了然
  • 拖放式操作,简单直观

🔒 隐私优先,安全可靠

  • 所有数据都存储在您的浏览器中
  • 无需注册,无需上传
  • 完全控制你的数据

🔄 导入导出,轻松分享

  • JSON格式导入导出
  • 快速分享你的设计
  • 完整备份功能

🚀 快速上手

🐳Docker部署

创建docker-compose.yml文件,内容如下:

services:fossflow:image: stnsmith/fossflow:latest container_name: fossflow ports:-"5010:80"volumes:# 如果要禁用服务端存储,可以注释掉这行- ./diagrams:/data/diagrams environment:- TZ=Asia/Shanghai # 如果要启用服务端存储,注释掉下面这行# - ENABLE_SERVER_STORAGE="false"restart: unless-stopped 

在docker-compose.yml 同级命令下使用以下命令启动

docker-compose up -d 

到此,我们就部署完了,在浏览器中输入地址就可以访问了

🌐在线体验

直接访问:https://stan-smith.github.io/FossFLOW/

📱本地启动

# 克隆仓库git clone https://github.com/stan-smith/FossFLOW cd FossFLOW # 安装依赖npminstall# 启动开发服务器npm start 

🛠️ 使用指南

📈1. 创建图表

  • 点击右上角"+"按钮打开组件库
  • 从左侧拖放组件到画布
  • 或右键网格选择"Add node"

🧩2. 连接组件

  • 使用连接器显示组件关系
  • 智能对齐,保持图表整洁
  • 多层连接,表达复杂关系

✏️3. 自定义样式

  • 更改颜色、标签和属性
  • 调整位置和大小
  • 添加说明文字

🎨4. 导航操作

  • 鼠标滚轮放大缩小
  • 点击拖动平移画布
  • Ctrl+Z撤销,Ctrl+Y重做

🏗️ 技术栈

  • React - 现代化的UI框架
  • TypeScript - 类型安全的开发体验
  • Isoflow - 强大的等距图表引擎
  • PWA - 离线优先的Web应用架构

🚨缺点与不足

虽然该工具在基础功能方面表现良好,但在实际使用过程中仍存在一些明显的局限性与不足之处:

  • 3D节点资源严重匮乏官方提供的3D节点类型极为有限,仅包含基础的几何形状和少数预设模型,无法满足复杂三维场景的构建需求。
  • 第三方节点生态发展不完善第三方插件多为2D节点,在构建复杂三维场景时可能面临节点素材不足的问题。
  • 快捷操作方式还有待改进

📝 最后的话

在技术文档越来越重要的今天,一个清晰、直观的图表往往胜过千言万语。FossFLOW以其独特的等距视角,为技术图表带来了全新的可能性。无论你是架构师、开发者、技术作家还是项目经理,这款工具都值得一试。

最重要的是,它是完全免费和开源的!你可以在GitHub上找到所有源代码,自由使用、学习和改进。

Read more

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

文章目录 * 前言 * 步骤 * 最重要的一步 前言 事实上,Github Copilot马上就要开源了,我原本的认证过期了。但是在我体验了众多的代码补全工具实在是太难用了之后,我觉得一天也等不了了,就去再一次认证了学生认证。 这次严格了很多,要求巨无敌多,这里写一下新认证要干的事情。 一口气认证了八次的含金量谁懂,把要踩的坑全踩完了。。 步骤 (如果你是第一次认证还要额外添加一下自己的学校邮箱,这里我就略过不提了) 在所有的步骤之前,最好确保你的本人就在学校或者在学校附近。当你出现了报错You appear not to be near any campus location for the school you have selected.时,会非常难通过。 而其他的报错可以按我下文这种方式通过。 (对于部分学校,比如华科大)双重认证Two-factor authentication要打开:跳转这个网站https://github.com/settings/security,然后点下一步开启认证,

By Ne0inhk
LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

By Ne0inhk
【混元AIGC+腾讯云智能体+首创Coze核心流思维导图MCP】:打造一个文思通-智能写作助手Agent

【混元AIGC+腾讯云智能体+首创Coze核心流思维导图MCP】:打造一个文思通-智能写作助手Agent

【混元AIGC+腾讯云智能体+首创Coze核心流思维导图MCP】:打造一个文思通-智能写作助手Agent 1.背景 作为一名长期关注人工智能发展的内容创作者,我经常需要撰写关于AI技术、应用趋势和产品体验的文章。然而,在实际写作过程中,常常会遇到灵感枯竭、结构混乱、表达不够精准等问题。有时候写到一半才发现逻辑断层,或者内容重复,甚至忘记了一些关键知识点。 为了解决这些痛点,我决定打造一个专属于自己的智能写作助手,取名为“文思通”——寓意“文思如泉涌,条理通达”。这个助手不仅要能帮我生成内容,更要具备结构化思维引导、逻辑梳理和语言润色的能力。 最近,我接触到一种创新的工具组合:以 Coze 平台为核心逻辑流,结合自研的思维导图 MCP 服务,可以实现从文本到可视化思维导图的自动转换。这正好解决了我在构思阶段缺乏条理的问题。而选择开发平台时,我注意到腾讯云智能体开发平台与腾讯混元大模型(Hunyuan AIGC) 的深度整合能力非常出色,支持工作流编排、插件扩展(MCP),并且提供稳定高效的推理服务。 最终,我决定采用“混元AIGC + 腾讯云智能体平台

By Ne0inhk
Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

最近在帮一个医疗创业团队做技术支持,他们想把通用大模型改造成能回答专业医疗问题的智能助手。今天就把整个过程整理出来,希望对有类似需求的朋友有所帮助。 核心工具链:LLaMA-Factory + Qwen3.5-4B + 医疗问答数据集 Qwen3.5 是阿里最新发布的千问系列模型,4B 参数量刚好卡在"效果够用 + 显存友好"的甜蜜点;LLaMA-Factory 则是目前开源社区最成熟的微调框架,上手简单,坑也相对少。 准备工作 先说硬件要求。4B 模型用 LoRA 微调的话,一张 12GB 显存的显卡就够了(比如 RTX 4070)。如果手头只有 8GB 显存的卡,可以上 QLoRA 量化方案,牺牲一点精度换显存空间。 微调方式 4B 模型显存需求 推荐显卡 LoRA (16-bit) ~10-12 GB

By Ne0inhk