摆脱局域网束缚!OpenWebUI+cpolar 让本地 AI 模型走到哪用到哪

摆脱局域网束缚!OpenWebUI+cpolar 让本地 AI 模型走到哪用到哪
在这里插入图片描述

OpenWebUI 是一款专注于本地 AI 模型管理的可视化工具,能兼容 Ollama 本地模型和 OpenAI 兼容 API 类云端模型,支持上传 PDF、Word 等文档搭建私人知识库,还能实现多用户权限管理、对话历史备份等功能,把原本繁琐的 AI 模型操作转化为简单的可视化交互。

作为日常使用 OpenWebUI 的用户,最直观的感受是它大幅降低了 AI 模型的使用门槛:不用记复杂的命令行指令,调参、切换模型全在界面操作,写论文时先用本地小模型试写,再切换云端大模型润色,既省成本又保障隐私,小团队用它管理 AI 模型,还能避免参数混乱的问题。

在这里插入图片描述

接入 cpolar 解决了 OpenWebUI 仅限局域网使用的问题后,使用体验提升显著:之前只能坐在部署模型的电脑前操作,现在无论是在咖啡厅改方案,还是出差途中调整 AI 生成的设计素材,只需打开浏览器输入链接就能访问;团队协作时,不用再反复沟通局域网地址,远程成员也能实时调用知识库,比如市场部同事在外拜访客户,能随时用 AI 调取公司产品文档生成定制化方案,彻底摆脱了地域和网络的限制。

在这里插入图片描述
实用场景

1、设计师:

  • 痛点:设计师在家用高性能电脑跑本地模型,上班时想继续用却只能远程操控电脑,卡得像幻灯片。
  • 爽点:用 OpenWebUI+cpolar 穿透后,公司电脑浏览器输入网址就能用家里的 AI,生成设计方案时素材直接从本地知识库调取,流畅得像用本地软件。

2、小团队:

  • 痛点:小团队共用一个 AI 模型,每个人调的参数不一样,经常 “打架”。
  • 爽点:OpenWebUI 的多用户管理功能给老板开管理员权限,员工只能用预设参数,还能看到谁用模型生成了什么,协作效率飙升。

3、学生党

  • 痛点:学生宿舍网慢,下载大模型费时间,云端模型又怕泄露论文思路。
  • 爽点:先用小模型(DeepSeek R1-1.5B)在本地试写,再切换到阿里云百炼的 671B 大模型润色,免费 Tokens 够用到毕业,隐私还安全。
在这里插入图片描述

cpolar 内网穿透技术带来的便利:

  • 出门在外想调家里的 AI 模型?不用麻烦家人开电脑,手机浏览器输入 cpolar 给的网址,直接访问 OpenWebUI,连出差都能随时改方案。
  • 朋友想体验你的本地 AI?不用搞复杂的端口映射,把 cpolar 生成的链接发给他,不管他在学校还是咖啡厅,点开就能聊,比分享文件还简单。
  • 担心免费域名总变?升级 cpolar 固定域名后,书签存一个地址永久能用,团队成员再也不用天天问 “今天的链接是啥”。
  • 加密隧道传输数据,比直接开端口安全 10 倍,就算在公共 WiFi 上用,也不怕别人偷看你的 AI 对话记录。
  • 不用买服务器,家里旧电脑就能当 AI 服务器,搭配 cpolar 全球访问,省下的钱够买好几杯奶茶。
在这里插入图片描述
总结

OpenWebUI 就像给本地 AI 模型装了个 “智能大脑壳”,把复杂操作变简单,把零散功能串起来;而 cpolar 则像给这个 “大脑壳” 装了个 “全球通行证”,让你随时随地都能用上自己的 AI 助手。不管是个人用它写代码、做设计、查资料,还是小团队搞协作,这套组合都能让 AI 从 “实验室玩具” 变成 “生产力工具”。关键是开源免费、隐私可控,新手也能半小时搞定部署,堪称 “平民级 AI 工作台” 的天花板。

1.1 OpenWebUI界面操作演示

在深入任何技术细节之前,让我们先看看你将通过本教程搭建完成的终极工作台。这将彻底改变你与本地大模型交互的方式。
open webui效果图(支持预览代码)

image-20250911171004600

GIF动图演示(生成一个html登录界面)

final_multisegment

怎么样,是不是效果特别棒,有没有兴趣一起搭建本地部署一个体验一下!

1.2 OpenWebUI介绍

OpenWebUI(原名 Ollama WebUI)不仅仅是一个为 Ollama 打造的聊天界面,更是一个功能丰富的开源 Web 用户界面与管理平台。它的核心使命是让每个人都能以最简单、最直观的方式,与运行在本地或私有环境中的大语言模型进行交互和管理,同时提供企业级的功能扩展性。

项目地址:https://github.com/open-webui/open-webui

image-20250911190627993

为什么 OpenWebUI 能获得全球开发者青睐?

OpenWebUI 之所以能够迅速赢得 110K Stars,源于它完美结合了强大功能与极致易用性,成为一个真正全面的 AI 管理与应用控制台。

核心优势:

  • 极致的用户友好体验
    提供媲美 ChatGPT 的交互体验,支持流畅的打字机效果、完整的 Markdown 渲染(含表格和 LaTeX 数学公式)、代码高亮与复制功能、多主题切换以及完整的对话历史管理。用户无需记忆复杂的 Ollama 命令行指令,所有操作均可通过直观的界面完成。
image-20250912100926433
    • 多模型生命周期管理:支持 Ollama 全系列本地模型,同时可连接 OpenAI 兼容 API(如 DeepSeek R1)、Claude 系列、LocalAI 等多种后端,成为统一的模型控制中心
    • 检索增强生成(RAG)与知识库:内置强大的 RAG 引擎,支持上传 PDF、DOCX、TXT 等多种格式的本地文档,构建专属知识库
    • 工具调用与 MCP 兼容性:支持模型调用外部工具执行复杂任务,展现了与模型上下文协议类似的强大能力
    • 提示词工作流与协作:提供提示词市场和管理功能,支持创建、保存、共享和重用自定义提示词模板
  • 隐私安全与灵活部署
    所有数据完全运行在本地环境或私有服务器上,确保百分百离线与绝对隐私。支持多种部署方式,极大降低使用门槛。

强大的多功能集成与扩展能力

image-20250912101125197
image-20250912101356860
  • 无缝的 Ollama 集成
    自动检测本地运行的 Ollama 服务及已下载的模型,开箱即用,无需复杂配置。作为完全开源的项目,拥有高度可定制性和活跃的社区支持。

核心功能概览

功能模块核心能力价值
模型管理多后端支持、模型下载/切换/加载、参数实时调整统一管理入口,灵活适配不同场景
交互体验类 ChatGPT 界面、代码高亮、Markdown 渲染、多会话管理降低使用门槛,提供流畅体验
知识管理文档上传、知识库构建、语义搜索、上下文增强利用私有数据提升回答准确性
高级功能工具调用、Web 搜索集成、提示词工作流、多模态支持扩展模型能力边界,实现任务自动化
用户管理多用户系统、角色权限控制、团队协作满足企业级部署需求,保障数据安全
部署隐私完全离线、自托管、Docker 容器化、数据本地存储彻底掌控数据,保障隐私安全

OpenWebUI 成功地将强大的功能性、卓越的易用性和坚决的隐私保护结合于一身,这正是其能够在全球开发者社区中引发热潮的关键原因。它让本地大模型的交互和管理变得前所未有的简单和强大。

2 本地部署OpenWebUI

通过前面的演示和介绍,相信你已经对 OpenWebUI 的强大功能有了直观的认识。现在,让我们进入实战环节,一步步搭建属于你的专属 AI 工作台!

2.1 部署环境准备

在开始部署之前,我们需要确保你的系统环境满足基本要求。OpenWebUI 支持多种部署方式,我们将重点介绍最推荐的 Python pip 部署方案,这种方式简单、快速且无需额外软件。

系统要求:

  • Python 版本:Python 3.11(必须,其他版本可能有兼容性问题)
  • 操作系统:Windows 10/11、macOS 10.15+、Linux (Ubuntu 18.04+、CentOS 7+)
  • 内存:建议 8GB 以上(运行大模型需要更多内存)
  • 存储空间:至少 10GB 可用空间(用于存储模型和数据库)
  • 网络:需要网络连接以下载依赖包和模型

必需软件:

  • Python 3.11:核心运行环境
  • Ollama:本地大模型运行环境(可选,也可使用远程 API)

2.2 开始部署OpenWebUI

OpenWebUI 提供了多种部署方式,推荐使用Python pip 部署(强烈推荐)⭐,这是最简单、最快速的部署方式,只需要两条命令:

首先,确保您的电脑上拥有python 3.11版本的python环境,如果没有可以前往官方进行下载:

Python 3.11 下载地址及命令:

# Windows https://www.python.org/downloads/release/python-3118/ # macOS brew install [email protected] # Linux (Ubuntu/Debian)sudoaptinstall python3.11 
image-20250912115415927

快速验证版本:

在cmd中输入如下命令进行验证版本:

python --version
image-20250912115520139

然后配置一下国内源镜像(用于加速下载依赖):

# 配置清华源加速下载 pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple 
image-20250912115611782

接下来,依旧在cmd中执行如下命令,进行安装OpenWebUI:

# 安装 OpenWebUI pip install open-webui 
image-20250912121245331

安装完成后,执行如下命令进行启动测试:

# 启动OpenWebUI open-webui serve 
image-20250912122028093

启动成功,让我们访问浏览器测试一下,请求如下网址,进行访问:

http://localhost:8080/ 

参考图如下:

image-20250912133248492

可以看到,成功的访问到了open web-ui的默认页面,接下来点击开始使用,进入到创建管理员账号页面:

image-20250912135713502

创建好您的管理员账号后,会自动登录进首页:

image-20250912135850746

到这儿,您就已经初步成功的启动配置好您的 个人AI助理OpenWebUI啦,怎么样,是不是很简单!

3 配置接入DeepSeekR1-671B 大模型

3.1 接入DeepSeekR1- 671B(本地方案)

如果你要使用本地模型,需要先安装 Ollama服务,如果未进行安装,可以访问如下官方进行下载:

ollama官网下载地址:https://ollama.com/download

image-20250912133732977

或者可使用如下命令进行安装:

# Windows winget install Ollama.Ollama # macOS  brew install ollama # Linuxcurl-fsSL https://ollama.ai/install.sh |sh# 启动服务 ollama serve 

下载安装好后,可以在cmd中测试验证一下是否安装成功,直接输入如下命令:

ollama 
image-20250912140927890

接下来,登录到OpenWebUI首页,进来以后,可以看到左上方的选择模型部分:

image-20250912141222815

可以看到,我本地已经有一个qwen3:32b的模型,OpenWebUI帮我自动识别且添加进来了!

接下来,让我们再安装一个新的模型,进行演示,以deepseek-r1:1.5b为例(大概1.1G大小),在搜索模型中输入:

deepseek-r1:1.5b 

然后点击从Ollama.com拉取“deepseek-r1:1.5B”的选项,就会进行自动下载该模型,参考如下GIF动图演示:

02

让我们测试一下和deepseek-r1:1.5B模型聊天对话(GIF动图演示-未加速):

03

可以看到,因为模型比较小,响应速度很快,且能够正常思考和回答问题!

接下来,演示一下接入本地部署了deepseek-r1:671B的ollama服务,让我们享受一下真正满血版的效果。

首先,点击左下角头像,然后在弹出来窗口点击设置,在接下来的弹出的窗口点击左下角的管理员设置,打开后台页面:

或者直接访问如下地址,也可以进入后台页面:

http://localhost:8080/admin/settings/general 

后台页面:

image-20250912150101548

按照上图操作,依次点击外部连接,点击Ollama API右侧的+号按钮,在新弹出的添加连接窗口配置您的本地ollama服务:

image-20250912151158486

回到首页,查看模型列表:

image-20250912151336153

可以看到,成功的显示了接入来自局域网中ollama服务的deepseek-r1:671B大模型!

让我们演示一下是否可用(GIF动图参考)

04

可以看到,完美接入本地局域网中Ollama服务器中部署的满血版DeepSeekR1-671B大模型!和1.5B的模型对比差别巨大~

3.2 接入DeepSeekR1- 671B(Api方案)

在前面,我们已经部署接入了本地的Ollama服务,但是如果咱们的电脑没有办法跑这么大的模型怎么办呢?欸!别担心,我们可以使用线上的API服务,就不用借助我们本地的电脑来进行推理啦!有的小伙伴就有疑问了,用Api-key的方式不是收费的嘛?是的,使用Api-key的方式确实是收费的,但是阿里云百炼官方推出了一个重磅福利:新用户登录即可享受每个模型100万免费Tokens,参考图如下:

image-20250912172238010

就以满血版的DeepSeekR1-671B大模型为例:

首先,咱们需要领取千问百万tokens,来到阿里云百炼官网,点击右上角新用户登录即享每个模型100万免费tokens:

阿里云百炼官网

https://bailian.console.aliyun.com/#/home
image-20250912172402285

领取完成后,接下来进入密钥管理,设置设置千问api密钥:
密钥管理地址

https://bailian.console.aliyun.com/?spm=a2c4g.11186623.0.0.60907980OAftBf&tab=model#/api-key

点击创建api-key,填写完信息:

image-20250818100001054

然后点击复制按钮:

image-20250818100131402

复制下来格式大概如下:

sk-53207f95f7e44ec18d05669767f649b7 

然后回到OpenWebUI首页.点击左下角头像,然后在弹出来窗口点击设置,在接下来的弹出的窗口点击左下角的管理员设置,打开后台页面:

或者直接访问如下地址,也可以进入后台页面:

http://localhost:8080/admin/settings/general 

后台页面:

image-20250912172930540

按照上图操作,依次点击外部连接,点击OpenAI API右侧的+号按钮,在新弹出的添加连接窗口配置您的阿里云百炼的服务:

# 阿里云百炼API地址 https://dashscope.aliyuncs.com/compatible-mode/v1/ 

配置参考图如下:

image-20250912173308705

回到首页,点击查看标签为通义千问下的模型:

image-20250912173552953

可以看到,成功的显示了接入来自阿里云百炼服务的deepseek-r1大模型!

让我们演示一下阿里云百炼服务的deepseek-r1大模型(GIF动图参考)

05

感觉怎么样,是不是超级简单?到这里,无论是本地的 Ollama 满血版 DeepSeek R1-671B,还是云端 API 方案,你都已在 OpenWebUI 中顺利接入、即开即用!

4 穿透OpenWebUI支持外网访问

通过前面的步骤,你已经成功搭建了一个功能强大的本地AI工作台。但是,你是否遇到过这样的困扰:当你在公司、咖啡厅或者出差时,想要访问家里的OpenWebUI来进行访问,却发现只能通过局域网访问?或者当朋友想要体验你的AI助手时,却因为网络限制而无法分享?这些场景正是内网穿透技术要解决的核心痛点。本章将带你使用cpolar内网穿透工具,让OpenWebUI突破局域网限制,实现全球任意地点的安全远程访问,真正实现"AI助手随身携带"的终极体验。

4.1 什么是cpolar?

image-20250910114418412
  • cpolar 是一款内网穿透工具,可以将你在局域网内运行的服务(如本地 Web 服务器、SSH、远程桌面等)通过一条安全加密的中间隧道映射至公网,让外部设备无需配置路由器即可访问。
  • 广泛支持 Windows、macOS、Linux、树莓派、群晖 NAS 等平台,并提供一键安装脚本方便部署。

4.2 下载cpolar

打开cpolar官网的下载页面,
点击立即下载 64-bit按钮,下载cpoalr的安装包:

image-20250815171202537

下来下来是一个压缩包,解压后执行目录种的应用程序,一路默认安装即可,安装完成后,打开cmd窗口输入如下命令确认安装:

cpolar version 
image-20250815171446129

出现如上版本即代表安装成功!

4.3 注册及登录cpolar web ui管理界面

4.3.1 注册cpolar

访问cpolar官网,点击免费注册按钮,进行账号注册

image-20250804085039567

进入到如下的注册页面进行账号注册:

image-20250804085208319
4.3.2 访问web ui管理界面

注册完成后,在浏览器中输入如下地址访问 web ui管理界面:

http://127.0.0.1:9200 
image-20250815171734046

输入刚才注册好的cpolar账号登录即可进入后台页面:

image-20250815171846757

4.4 穿透OpenWebUI项目的WebUI界面

4.4.1 随机域名方式(免费方案)

随机域名方式适合预算有限的用户。使用此方式时,系统会每隔 24 小时 左右自动更换一次域名地址。对于长期访问的不太友好,但是该方案是免费的,如果您有一定的预算,可以查看大纲4.4.2固定域名方式,且访问更稳定

点击左侧菜单栏的隧道管理,展开进入隧道列表页面,页面下默认会有 2 个隧道:

  • remoteDesktop隧道,指向3389端口,tcp协议
  • website隧道,指向8080端口,http协议(http协议默认会生成2个公网地址,一个是http,另一个https,免去配置ssl证书的繁琐步骤)
image-20250914174356363

点击编辑website的隧道,修改成我们open-webui需要的信息:

image-20250914175505162

接着来到在线隧道列表,可以看到名称为open-webui-8080隧道的两条记录信息,一条协议为http,另一条协议为https:

image-20250914175640094

以https为例,访问测试(加载稍慢,需耐心等待一下):

image-20250914180017042

可以看到,成功的访问到了open-webui的web页面了。恭喜!你已经成功实现了OpenWebUI的远程访问! 现在无论你身在何处,只要有网络就能随时访问你的专属AI工作台,真正实现了"AI助手随身携带"的终极体验。记得免费方案每24小时会更新域名地址,及时获取新地址即可持续享受远程访问的便利

4.4.2 固定域名方式(升级任意套餐皆可)

通过前面的配置,我们已经成功实现了OpenWebUI的远程访问,但免费随机域名方案的局限性也逐渐显现:每24小时自动更换域名地址,意味着你需要频繁更新书签、重新分享链接,甚至可能因为忘记更新而无法访问。固定域名方案正是为了解决这些痛点而生,让你拥有一个永久不变的专属地址,真正实现稳定可靠的远程AI工作台。

好啦,接下来开始固定保留二级子域名教程!

首先,进入官网的预留页面:

https://dashboard.cpolar.com/reserved 

选择预留菜单,即可看到保留二级子域名项,填写其中的地区名称描述(可不填)项,然后点击保留按钮,操作步骤图如下:

image-20250914181257676

列表中显示了一条已保留的二级子域名记录:

  • 地区:显示为China Top
  • 二级域名:显示为chatai

注:二级域名是唯一的,每个账号都不相同,请以自己设置的二级域名保留的为主

接着,进入侧边菜单栏的隧道管理下的隧道列表,可以看到名为open-webui-8080的隧道,点击编辑按钮进入编辑页面:

image-20250914181510734

修改域名类型为二级子域名,然后填写前面配置好的子域名,点击更新按钮:

image-20250914181630313

来到状态菜单下的在线隧道列表可以看到隧道名称为open-webui-8080的公网地址已经变更为二级子域名+固定域名主体及后缀的形式了:

image-20250914181713956

这里以https协议做访问测试(加载稍慢,需耐心等待一下):

image-20250914181929606

访问成功!这样一来,你就拥有了一个永久不变的专属域名,再也不用担心24小时域名更换的问题。现在你可以将这个固定地址添加到浏览器书签,分享给同事朋友,甚至用于正式的生产环境。恭喜!你已经完成了从免费随机域名到固定域名的完美升级,真正实现了专业级的远程AI工作台部署!

总结

从命令行到可视化界面,从局域网到全球访问,从免费体验到专业部署——我们一步步将原本复杂的 AI 模型部署变成了人人都能上手的简单操作。OpenWebUI 的 110K Stars 不是偶然,它真正解决了"让 AI 好用"这个核心痛点。

  • 告别命令行恐惧:从 ollama run 到优雅的 Web 界面,让 AI 交互变得像使用 ChatGPT 一样简单
  • 模型管理零门槛:本地 Ollama + 云端 API 双轨并行,1.5B 到 671B 模型随意切换
  • 隐私与便利兼得:数据完全本地化,却又能全球访问,真正做到了"鱼和熊掌兼得"
  • 从免费到专业:随机域名到固定域名,满足从个人体验到商业部署的全场景需求
  • AI 能力边界扩展:RAG 知识库、工具调用、多用户协作,让 AI 不再是简单的聊天工具

OpenWebUI 简化了本地 AI 模型的使用流程,cpolar 则拓展了它的使用场景。从只能固定地点使用到随时随地访问,这套组合让 AI 模型真正融入日常工作,成为灵活的生产力助手。


Read more

曝Windows 12将于今年发布?以AI为核心、NPU成「硬件门槛」,网友吐槽:“不想要的全塞进来了”

曝Windows 12将于今年发布?以AI为核心、NPU成「硬件门槛」,网友吐槽:“不想要的全塞进来了”

整理 | 郑丽媛 出品 | ZEEKLOG(ID:ZEEKLOGnews) 当年,微软一句“Windows 10 将是最后一个版本”的表态,让不少用户以为 Windows 进入了“只更新、不换代”的时代。但几年过去,现实却完全不同。 在 Windows 11 发布之后,如今关于 Windows 12 的传闻再次密集出现。从内部代号、代码片段,到硬件厂商的暗示与 OEM 预热标签,种种线索拼在一起,勾勒出一个明显的趋势——这不会只是一次常规升级,而更像是一次围绕 AI 的平台级重构。 更关键的是,这次争议,可能远比当年 TPM 2.0 更大。 精准卡位 Windows 10 退场的时间?

By Ne0inhk
Python热度下滑、AI能取代搜索引擎?TIOBE最新榜单揭晓!

Python热度下滑、AI能取代搜索引擎?TIOBE最新榜单揭晓!

整理 | 屠敏 出品 | ZEEKLOG(ID:ZEEKLOGnews) 日前,TIOBE 发布了最新的 3 月编程语言榜单。整体来看,本月排名变化不算大,但榜单中仍然出现了一些值得关注的小波动。  AI 工具能帮大家秒懂最新编程语言趋势? 由于 2 月天数较少,3 月的榜单整体变化有限。借着这次发布,TIOBE CEO Paul Jansen 也回应了一个最近被频繁讨论的问题:为什么 TIOBE 指数仍然依赖搜索引擎统计结果?在大语言模型流行的今天,直接询问 AI 哪些编程语言最流行,是不是更简单? 对此,Jansen 的回答是否定的。 他解释称,TIOBE 指数本质上统计的是互联网上关于某种编程语言的网页数量。而大语言模型的训练数据同样来自这些网页内容,因此从信息来源来看,两者并没有本质区别。换句话说,LLM 的判断,本质上也是建立在这些网页数据之上的。 Python 活跃度仍在下降

By Ne0inhk
“裸奔龙虾”数量已达27万只,业内人士警告;AI浪潮下,中传“砍掉”翻译等16个专业;薪资谈判破裂,三星电子8.9万人要罢工 | 极客头条

“裸奔龙虾”数量已达27万只,业内人士警告;AI浪潮下,中传“砍掉”翻译等16个专业;薪资谈判破裂,三星电子8.9万人要罢工 | 极客头条

「极客头条」—— 技术人员的新闻圈! ZEEKLOG 的读者朋友们好,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。(投稿或寻求报道:[email protected]) 整理 | 郑丽媛 出品 | ZEEKLOG(ID:ZEEKLOGnews) 一分钟速览新闻点! * “裸奔龙虾”已高达27万只!业内人士警告:一旦黑客入侵,敏感信息一秒搬空 * 阿里云 CTO 周靖人代管千问模型一号位,刘大一恒管理更多团队 * 中国传媒大学砍掉翻译、摄影等 16 个本科专业,直言教育要面向人机分工时代 * 雷军放话:小米将很快推出 L3、L4 的驾驶 * 消息称原理想汽车智驾一号位郎咸朋具身智能赛道创业 * vivo 前产品经理宋紫薇创业,瞄准 AI 时尚Agent,获亿元融资 * MiniMax 发布龙虾新技能,股价暴涨超 23% * 薪资谈判破裂,三星电子

By Ne0inhk
一天开13个会、一个Bug要修200天!前亚马逊L7爆料:这轮大裁员,AI只是“背锅侠”

一天开13个会、一个Bug要修200天!前亚马逊L7爆料:这轮大裁员,AI只是“背锅侠”

整理 | 郑丽媛 出品 | ZEEKLOG(ID:ZEEKLOGnews) 过去一年,大型科技公司的裁员消息几乎从未停过。但当公司对外给出的理由越来越统一,“AI 让组织更高效”,也有越来越多内部员工开始提出另一种质疑:事情或许没那么简单。 最近,一段来自前亚马逊员工 Becky 的 YouTube 视频在开发者社区流传开来。她曾在亚马逊工作 7 年,其中 5 年担任 L7 级别的技术管理者,负责过团队年度规划(OP1)等核心管理工作——可去年,她主动离开了亚马逊。 就在最近,她的三位前同事接连被裁,其中两人还是 H-1B 签证员工,都背着房贷压力。其中一位同事忍不住给 Becky 发消息:“你去年离开的时候,是不是已经预料到会发生这些?” 对此,Becky 的回答很坦诚:她不知道具体什么时候会裁员,但她早就感觉情况不对劲了。 在她看来,这轮裁员被归因为

By Ne0inhk