机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

Coursera课程地址

因为Coursera的课程还有考试和论坛,后续的笔记是基于Coursera

Recommender Systems 推荐系统

1. 问题制定 Problem formulation

推荐是目前非常流行的机器学习应用。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

假设我们正在尝试向客户推荐电影。我们可以使用以下定义

  • n(u) = 用户数
  • n(m) = 电影数量
  • r(i,j) = 1 如果用户 j 对电影 i 进行了评分
  • y(i,j) = 用户 j 对电影 i 的评分(仅在 r(i,j)=1 时定义)

2. 基于内容的推荐 Content-based recommendations

我们可以介绍两个特点,X(1) 和 X(2) 它表示一部电影可能有多少浪漫或多少动作(在 0-1 的范围内)。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

一种方法是我们可以对每个用户进行线性回归。对于每个用户 j,学习一个参数 θ(j) ∈ R(3)

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

θ(j) = 用户 j 的参数向量

x(i) = 电影 i 的特征向量
对于用户 j,电影 i,预测评分:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems


www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

θ(j) = 用户 j 评分的电影数量

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

学习θ(j) 我们做以下

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

这就是我们熟悉的线性回归。第一个求和的基础是选择所有 i 使得 r(i, j) = 1.

要获取所有用户的参数,我们执行以下操作:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

我们可以使用上述成本函数应用我们的线性回归梯度下降更新。

唯一真正的区别是我们消除了常数 1/m

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

3. 协同过滤 Collaborative filtering

在电影中找到诸如“浪漫的数量”或“动作的数量”之类的特征可能非常困难。为了解决这个问题,我们可以使用特征查找器。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

我们可以让用户告诉我们他们对不同类型的喜欢程度,立即为我们提供他们的参数向量。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

为了从给定参数推断特征,我们使用对所有用户进行正则化的平方误差函数:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems
www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

您还可以随机猜测theta 的值以重复猜测特征。你实际上会收敛到一组好的特征。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

4. 协同过滤算法 Collaborative filtering algorithm

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

为了加快速度,我们可以同时最小化我们的特征和参数:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

看起来很复杂,但我们只结合了 theta 的成本函数和 x 的成本函数。

因为算法可以自己学习它们,x0=1 的偏置单元已经被去除,因此 x∈ℝn 和 θ∈ℝn。

这些是算法中的步骤:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

初始化 X(i), …, X(nm), θ(i), …, θ(nu) 到小的随机值。这有助于打破对称性并确保算法学习特征 X(i), …, X(ni) 彼此不同。

最小化 J(X(i),… X(nm), θ(i), …, θ(nu)) 用梯度下降(或高级优化算法)。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

对于具有参数 θ 的用户和具有(学习)特征 x 的电影,预测星级评分 (θ^T) * X.

5. 矢量化:低秩矩阵分解 Vectorization: Low rank matrix factorization

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

给定矩阵 X(每行包含特定电影的特征)和 Θ(每行包含给定用户的这些特征的权重),则所有用户对所有电影的所有预测评分的完整矩阵 Y 由下式给出:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems
www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

可以使用它们各自的特征向量 x 之间的距离来预测两部电影 i 和 j 的相似程度。具体来说,我们正在寻找一个小的值||x(i) - x(j)|| .

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

6. 实现细节:均值归一化 Implementational detail: Mean normalization

如果使用之前讲座中的电影排名系统,那么新用户(没有看过电影)将错误地分配新电影。具体来说,由于正则化项的最小化,它们将被分配 θ,所有分量都为零。也就是说,我们假设新用户将对所有电影进行排名 0,这在直观上似乎并不正确。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

我们通过相对于均值对数据进行归一化来纠正这个问题。首先,我们使用矩阵 Y 来存储来自先前评分的数据,其中 Y 的第 i 行是第 i 部电影的评分,第 j 列对应于第 j 个用户的评分。

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

我们现在可以定义一个向量

μ= [μ1, μ2, ..., μnm]

以至于

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

这实际上是第 i 部电影的先前评分的平均值(其中仅计算用户观看过的电影)。我们现在可以通过从每个用户的实际评分(矩阵 Y 中的列)中减去 u(平均评分)来标准化数据:

例如,考虑以下矩阵 Y 和平均评分 μ:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

得到的 Y’ 向量为:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

现在我们必须稍微修改线性回归预测以包括平均归一化项:

www.zeeklog.com  - 机器学习- 吴恩达Andrew Ng Week9 知识总结 Recommender Systems

现在,对于新用户,初始预测值将等于 μ 项,而不是简单地初始化为零,这样更准确。

#pic_center =600x

参考

https://www.coursera.org/learn/machine-learning/resources/szFCa
https://www.coursera.org/learn/machine-learning/supplement/gXdW5/lecture-slides

Read more

决策树算法介绍:原理与案例实现

决策树算法介绍:原理与案例实现

决策树算法介绍:原理与案例实现 决策树算法介绍:原理与案例实现 一、决策树算法概述 决策树是一种基本的分类与回归方法,它基于树形结构进行决策。决策树的每一个节点都表示一个对象属性的测试,每个分支代表该属性测试的一个输出,每个叶节点则代表一个类别或值。决策树学习通常包括三个步骤:特征选择、决策树的生成和决策树的剪枝。 二、决策树算法原理 1. 特征选择 特征选择是决策树学习的核心。它决定了在树的每个节点上选择哪个属性进行测试。常用的特征选择准则有信息增益、增益比和基尼不纯度。 * 信息增益:表示划分数据集前后信息的不确定性减少的程度。选择信息增益最大的属性作为当前节点的测试属性。 * 增益比:在信息增益的基础上考虑了属性的取值数量,避免了对取值数量较多的属性的偏好。 * 基尼不纯度:在CART(分类与回归树)算法中,使用基尼不纯度作为特征选择的准则。基尼不纯度越小,表示纯度越高。 2. 决策树的生成 根据选择的特征选择准则,从根节点开始,递归地为每个节点选择最优的划分属性,并根据该属性的不同取值建立子节点。直到满足停止条件(如所有样本属于同一类,

By Ne0inhk
他给女朋友做了个树莓派复古相机,算法代码可自己编写,成本不到700元

他给女朋友做了个树莓派复古相机,算法代码可自己编写,成本不到700元

手机拍照不够爽,带个单反又太重? 试试做个树莓派复古相机,还能自己编写处理算法的那种—— 成本不到700元。 没错,颜值很高,拍出来的照片也能打: 你也可以快速上手做一个。 如何制作一个树莓派复古相机 目前,这部相机的代码、硬件清单、STL文件(用于3D打印)和电路图都已经开源。 首先是硬件部分。 这部复古相机的硬件清单如下: 树莓派Zero W(搭配microSD卡)、树莓派高清镜头模组、16mm 1000万像素长焦镜头、2.2英寸TFT显示屏、TP4056微型USB电池充电器、MT3608、2000mAh锂电池、电源开关、快门键、杜邦线、3D打印相机外壳、黑色皮革贴片(选用) 至于3D打印的相机外壳,作者已经开源了所需的STL文件,可以直接上手打印。 材料齐全后,就可以迅速上手制作了~ 内部的电路图,是这个样子的: 具体引脚如下: 搭建好后,整体电路长这样: 再加上3D外壳(喷了银色的漆)和镜头,一部简易的树莓派复古相机就做好了。 至于软件部分,

By Ne0inhk
🚀Zeek.ai一款基于 Electron 和 Vite 打造的跨平台(支持 Windows、macOS 和 Linux) AI 浏览器

🚀Zeek.ai一款基于 Electron 和 Vite 打造的跨平台(支持 Windows、macOS 和 Linux) AI 浏览器

是一款基于 Electron 和 Vite 打造的跨平台(支持 Windows、macOS 和 Linux) AI 浏览器。 集成了 SearXNG AI 搜索、开发工具集合、 市面上最流行的 AI 工具门户,以及代码编写和桌面快捷工具等功能, 通过模块化的 Monorepo 架构,提供轻量级、可扩展且高效的桌面体验, 助力 AI 驱动的日常工作流程。

By Ne0inhk
LibreChat 集成 Stripe 支付的奶妈级教程

LibreChat 集成 Stripe 支付的奶妈级教程

我们假设你已经熟悉基本的 React 和 Node.js 开发,并且正在使用 LibreChat 的默认技术栈(React 前端、Node.js 后端、Vite 构建工具,可能还有 Electron 桌面应用)。教程会特别考虑 Electron 环境下的适配问题(例如 macOS 中文路径或路由错误)。“奶妈级”带你从零开始实现支付功能(包括一次性支付和添加高级会员订阅) 教程目标 * 在 LibreChat 中添加支付页面,支持用户通过信用卡付款。 * 实现 Stripe 的一次性支付功能。 * (可选)扩展到订阅功能,管理高级会员状态。 * 解决 Electron 环境下的常见问题(如路由和路径解析)。 * 生成可公开推送的 Markdown 教程,方便社区参考。 前提条件 在开始之前,请确保你已准备好以下内容:

By Ne0inhk