前端如何实现 [记住密码] 功能

前端如何实现“记住密码”功能

“记住密码”功能在现代 Web 应用中仍然非常常见,但由于浏览器安全策略和用户隐私意识的提升,实现方式已经从早期的“明文存 Cookie”演变为更安全、更符合规范的方案。

下面是目前主流的几种实现方式,从简单到推荐的完整说明:

1. 最常见但已不推荐的方式(仅作了解)

方式:用户名 + 密码同时存入 Cookie 或 localStorage

// 登录成功后 localStorage.setItem('username', username); localStorage.setItem('password', password);// 明文!极度危险// 下次打开页面自动填充 document.getElementById('username').value = localStorage.getItem('username')||''; document.getElementById('password').value = localStorage.getItem('password')||'';

问题

  • 密码明文存储在客户端,极易被窃取(XSS、物理访问、开发者工具等)
  • localStorage 没有过期时间,永久保留
  • 几乎所有安全扫描工具都会标记为高危漏洞

结论2025 年已完全不建议使用这种方式


2. 当前最推荐的合规方案(浏览器原生 + 记住我)

现代浏览器(Chrome、Safari、Edge、Firefox)都提供了密码管理器自动填充功能,前端只需要配合好即可实现“记住密码”。

核心思路

不自己存密码,而是让浏览器记住密码。

前端要做的事:

  1. 使用正确的表单结构,让浏览器识别这是登录表单
  2. 添加 autocomplete="on" 或更具体的属性
  3. 提供“记住我”复选框(但实际不存密码)
  4. 登录成功后,浏览器会弹出“是否保存密码”的提示
推荐的 HTML 结构
<formid="loginForm"method="post"autocomplete="on"><div><labelfor="username">用户名 / 邮箱</label><inputtype="text"id="username"name="username"autocomplete="username"required></div><div><labelfor="password">密码</label><inputtype="password"id="password"name="password"autocomplete="current-password"required></div><divclass="remember-me"><inputtype="checkbox"id="remember"name="remember"checked><labelfor="remember">记住我(下次自动登录)</label></div><buttontype="submit">登录</button></form>
关键属性说明
属性作用推荐值
autocomplete="username"告诉浏览器这是用户名/邮箱字段username / email
autocomplete="current-password"告诉浏览器这是当前登录密码current-password
autocomplete="on"表单整体允许自动填充on
name="password"必须有 name,浏览器才会识别为密码字段password
浏览器行为
  • 用户第一次登录成功后,浏览器通常会弹出“保存密码?”的提示
  • 用户选择“保存”后,下次访问相同域名时:
    • 用户名/邮箱会自动填充
    • 密码字段会显示“使用保存的密码”或直接填充(取决于浏览器设置)
“记住我”复选框的作用

现在“记住我”更多是心理安慰 + 业务逻辑

  • 勾选了 → 后端返回更长的 session/token 有效期(比如 30 天)
  • 没勾选 → session 短(比如 2 小时或浏览器关闭即失效)

前端不需要自己存密码,只需把这个状态传给后端。


3. 更现代的方案:使用 Credential Management API(推荐高级场景)

浏览器提供的 Credential Management API 允许网站主动读取/保存用户凭证。

示例代码(保存凭证)
asyncfunctionsaveCredential(username, password){if(!navigator.credentials)return;try{const cred =newPasswordCredential({id: username,password: password,name: username,// 可选,显示在选择器中iconURL:'/logo.png'// 可选});await navigator.credentials.store(cred); console.log('凭证已保存');}catch(err){ console.error('保存凭证失败', err);}}
自动获取保存的凭证
asyncfunctionautoFillLogin(){if(!navigator.credentials)return;try{const cred =await navigator.credentials.get({password:true,mediation:'optional'// 可选:显示选择器});if(cred && cred.type ==='password'){ document.getElementById('username').value = cred.id; document.getElementById('password').value = cred.password;}}catch(err){ console.log('获取凭证失败', err);}}// 页面加载时尝试自动填充 window.addEventListener('load', autoFillLogin);

支持情况(2026 年):

  • Chrome / Edge:完全支持
  • Safari:部分支持(限制较多)
  • Firefox:不支持或支持有限

4. 总结:2025–2026 年推荐做法对比

方案安全性用户体验实现难度推荐指数备注
明文存 localStorage/Cookie★☆☆☆☆★★★☆☆不推荐高危漏洞
浏览器原生自动保存(推荐)★★★★★★★★★★★★★★★首选
Credential Management API★★★★★★★★★☆★★★★☆高级场景
后端返回长效 token + HttpOnly Cookie★★★★★★★★★☆★★★★☆适合 App 端

一句话结论

现代 Web 应用中,“记住密码”功能最好的实现方式是:配合浏览器的密码管理器,使用规范的表单结构 + autocomplete 属性,让浏览器来负责记住和填充密码,前端只负责“记住我”状态的业务逻辑(长 session / token)。

如果你想在项目中同时支持“记住我” + “一键登录”,可以告诉我你的技术栈(React/Vue/纯 JS?),我可以给你更具体的完整代码示例。

Read more

实战教程|基于Z-Image-Turbo搭建个人AI绘画平台

实战教程|基于Z-Image-Turbo搭建个人AI绘画平台 在AI生成图像技术迅猛发展的今天,Z-Image-Turbo 作为阿里通义实验室推出的高性能图像生成模型,凭借其极快的推理速度与高质量输出,迅速成为开发者和创作者关注的焦点。本文将带你从零开始,基于 Z-Image-Turbo WebUI 搭建一个可本地运行的个人AI绘画平台,并完成二次开发优化,实现高效、稳定、个性化的图像生成能力。 本项目由“科哥”进行深度二次开发与工程化封装,显著提升了易用性与稳定性,适合希望快速部署AI绘图服务的技术爱好者、设计师或小型团队。 🎯 教程目标 通过本教程,你将掌握: - 如何部署 Z-Image-Turbo WebUI 服务 - 熟悉核心参数配置与提示词编写技巧 - 掌握常见使用场景的最佳实践 - 学会调用 Python API 实现自动化生成 - 解决部署与运行中的典型问题 前置知识要求:具备基础 Linux 命令行操作能力,了解 Conda 虚拟环境管理,有 Python

LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人

LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人

文章目录 前言 一、LLaMA 3.1 的特点 二、LLaMA3.1的优势 三、LLaMA3.1部署流程 (一)创建实例 (二)通过JupyterLab登录实例 (3)部署LLaMA3.1 (4)使用教程 总结 前言 LLama3.1 是 Meta(Facebook 母公司)发布的系列大语言模型之一,属于 LLaMA(Large Language Model Meta AI)模型系列。LLaMA 模型的目标是通过更高效的设计在保持模型性能的前提下,显著降低其计算和资源需求。LLaMA 3.1 是该系列的最新版本,继承了前面版本,如 LLaMA 1

GitHub Copilot辅助编写PyTorch代码:提升开发效率

GitHub Copilot 与 PyTorch-CUDA 镜像协同开发:重塑深度学习编码体验 在深度学习项目中,开发者常常面临两个“时间黑洞”:一个是花数小时甚至几天配置环境,另一个是重复编写大量样板代码。即便你已经熟练掌握 PyTorch 的 API,从头写一个数据加载器、构建模型类、设计训练循环依然繁琐且容易出错。更别提当团队成员使用不同版本的 CUDA 或 Python 时,“在我机器上能跑”的经典问题又会卷土重来。 有没有可能让 AI 帮你写代码,同时把整个 GPU 环境打包成即插即用的容器?答案是肯定的——GitHub Copilot + PyTorch-CUDA-v2.8 镜像 正是这样一套组合拳,它不仅大幅压缩了开发周期,还让新手也能快速上手专业级深度学习工程实践。 想象一下这个场景:你在 VS Code 中输入一行注释 # Load CIFAR-10 dataset with augmentation,

Llama-Factory是否支持强化学习微调?RLHF模块进展

Llama-Factory 是否支持强化学习微调?RLHF 模块进展深度解析 在大模型时代,如何让一个“通才”变成懂你心思的“专家”,是每个开发者都在思考的问题。预训练语言模型虽然知识渊博,但生成内容常常天马行空、缺乏边界。监督微调(SFT)能教会它基本对话能力,可要让它真正理解人类偏好——比如更喜欢简洁回答而非啰嗦段落、避免敏感话题、保持逻辑连贯——仅靠标注好的输入-输出对已经不够了。 这时候,基于人类反馈的强化学习(RLHF) 就成了关键突破口。ChatGPT 的惊艳表现背后,正是 RLHF 在起作用:不是直接告诉模型“该说什么”,而是通过大量“这个回答比那个好”的比较数据,训练出一个打分器(奖励模型),再用这个打分器去引导主模型一步步优化自己的输出策略。 听起来很美,但落地极难。RLHF 是一条由 SFT → 奖励模型训练 → PPO 强化学习组成的复杂流水线,涉及多个模型协同、分布式计算调度和算法稳定性控制。对于大多数团队来说,从零搭建这样一套系统成本太高。