Neural Factorization Machines(NFM)

Neural Factorization Machines(NFM)

1. 概述

Neural Factorization Machines(NFM)[1]是在2017年提出的用于求解CTR问题的算法模型,在Wide & Deep模型被提出后,相继出现了一些改进的算法模型,如DeepFM和DCN可以看成是对于Wide & Deep模型中Wide部分的改进,而此处的NFM模型则是可以看作是对Deep部分的改进。从模型的名字来看,NFM包含了两个部分,第一为Neural,这部分与神经网络相关,第二为Factorization Machines,这部分与FM相关。对于FM模型,文章中提到了可以从深度学习网络结构的角度来看待,此时FM就可以看作是由单层LR和二阶特征交叉组成的Wide & Deep模型,与Google提出的Wide & Deep模型的不同之处就是Deep部分是二阶隐向量相乘。从这个角度上来看,NFM是在FM的基础上利用NN模型代替FM中的Deep部分,而这个NN与Wide & Deep中的Deep的不同是NFM中的Deep中包含了Bi-Interaction的层,用于对特征做二阶交叉运算。综上,NFM的优化点主要为:

  1. 在深度网络中引入Bi-Interaction做进一步的特征交叉。
  2. 对比FM,深度网络能够学习更高阶的非线形的特征交叉。

2. 算法原理

2.1. NFM模型的网络结构

完整的NFM的网络结构如下图所示:

www.zeeklog.com  - Neural Factorization Machines(NFM)


对于NFM模型,假设输入的稀疏经one-hot编码后的向量为 x ∈ R n \mathbf{x}\in \mathbb{R}^n x∈Rn,NFM模型的输出为:

y ^ N F M ( x ) = w 0 + ∑ i = 1 n w i x i + f ( x ) \hat{y}_{NFM}\left ( \mathbf{x} \right )=w_0+\sum_{i=1}^{n}w_ix_i+f\left ( \mathbf{x} \right ) y^​NFM​(x)=w0​+i=1∑n​wi​xi​+f(x)

其中, w 0 + ∑ i = 1 n w i x i w_0+\sum_{i=1}^{n}w_ix_i w0​+∑i=1n​wi​xi​如上图中的linear regression, f ( x ) f\left ( \mathbf{x} \right ) f(x)为上图中的右半部分。对于FM算法,其表达式为:

y ^ F M ( x ) = w 0 + ∑ i = 1 n w i x i + ∑ i = 1 n − 1 ∑ j = i + 1 n ⟨ v i , v j ⟩ x i x j \hat{y}_{FM}\left ( \mathbf{x} \right )=w_0+\sum_{i=1}^{n}w_ix_i+\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}\left \langle v_i,v_j \right \rangle x_ix_j y^​FM​(x)=w0​+i=1∑n​wi​xi​+i=1∑n−1​j=i+1∑n​⟨vi​,vj​⟩xi​xj​

从两者的数学表达式可以看出,FM模型是NFM的特殊形式,即满足: f ( x ) = ∑ i = 1 n − 1 ∑ j = i + 1 n ⟨ v i , v j ⟩ x i x j f\left ( \mathbf{x} \right )=\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}\left \langle v_i,v_j \right \rangle x_ix_j f(x)=∑i=1n−1​∑j=i+1n​⟨vi​,vj​⟩xi​xj​。我们发现如何构造 f ( x ) f\left ( \mathbf{x} \right ) f(x)式NFM模型中的关键部分。

2.2. NFM模型中的特征交叉

NFM模型中的特征交叉 f ( x ) f\left ( \mathbf{x} \right ) f(x)的结构如下图所示:

www.zeeklog.com  - Neural Factorization Machines(NFM)


如上图,NFM中特征交叉部分 f ( x ) f\left ( \mathbf{x} \right ) f(x)是一个深度神经网络模型,在特征交叉部分 f ( x ) f\left ( \mathbf{x} \right ) f(x)的网络中,主要包括Embedding层,Bi-Interaction层,隐含层以及预测层。

2.2.1. Embedding层

Embedding层的作用是将稀疏的one-hot特征转换成稠密的向量表示,这个操作是深度神经网络的必备操作方法。假设转换后的embeding向量为:

V x = { x 1 v 1 , ⋯ , x n v n } \mathbf{V}_x=\left\{x_1\mathbf{v}_1,\cdots ,x_n\mathbf{v}_n \right\} Vx​={x1​v1​,⋯,xn​vn​}

2.2.2. Bi-Interaction层

对稀疏特征处理后就可以进入到深度学习模型的计算中,在NFM中,首先进入到Bi-Interaction层中,Bi-Interaction Pooling的主要作用是对Embedding后的特征学习特征交叉,其具体格式为:

f B I ( V x ) = ∑ i = 1 n − 1 ∑ j = i + 1 n x i v i ⊙ x j v j f_{BI}\left ( \mathbf{V}_x \right )=\sum_{i=1}^{n-1}\sum_{j=i+1}^{n}x_i\mathbf{v}_i\odot x_j\mathbf{v}_j fBI​(Vx​)=i=1∑n−1​j=i+1∑n​xi​vi​⊙xj​vj​

其中, ⊙ \odot ⊙表示的是两个向量的元素乘积,即 ( v i ⊙ v j ) k = v i k v j k \left ( \mathbf{v}_i\odot \mathbf{v}_j \right )_k=v_{ik}v_{jk} (vi​⊙vj​)k​=vik​vjk​。可以看到Bi-Interaction的输出为两个向量的交叉。

2.2.3. Hidden层

在Bi-Interaction层之上是堆叠了一系列的隐含层,主要的目的是学习更高阶的特征交叉,用数学的表述为:

z 1 = σ 1 ( W 1 f B I ( V x ) + b 1 ) z 2 = σ 2 ( W 2 z 1 + b 2 ) ⋯ ⋯ z L = σ L ( W L z L − 1 + b L ) \begin{matrix} \mathbf{z}_1=\sigma _1\left ( \mathbf{W}_1f_{BI}\left ( \mathbf{V}_x \right )+\mathbf{b}_1 \right )\\ \mathbf{z}_2=\sigma _2\left ( \mathbf{W}_2\mathbf{z}_1+\mathbf{b}_2 \right )\\ \cdots \cdots \\ \mathbf{z}_L=\sigma _L\left ( \mathbf{W}_L\mathbf{z}_{L-1}+\mathbf{b}_L \right ) \end{matrix} z1​=σ1​(W1​fBI​(Vx​)+b1​)z2​=σ2​(W2​z1​+b2​)⋯⋯zL​=σL​(WL​zL−1​+bL​)​

其中, L L L表示的是隐含层的层数, W L \mathbf{W}_L WL​, b L \mathbf{b}_L bL​和 σ L \sigma _L σL​分别为第 L L L的网络权重,偏置和激活函数。

2.2.4. Prediction层

经过多个隐含层后,得到隐含层的输出 z L \mathbf{z}_L zL​,最终将隐含层的输出送入到预测层中,得到Deep侧的输出结果,即为:

f ( x ) = h T z L f\left ( \mathbf{x} \right )=\mathbf{h}^T\mathbf{z}_L f(x)=hTzL​

其中, h \mathbf{h} h为输出层的权重,最终NFM模型的输出结果为:

y ^ N F M ( x ) = w 0 + ∑ i = 1 n w i x i + h T σ L ( W L ( ⋯ σ 1 ( W 1 f B I ( V x ) + b 1 ) ⋯ ) + b L ) \hat{y}_{NFM}\left ( \mathbf{x} \right )=w_0+\sum_{i=1}^{n}w_ix_i+\mathbf{h}^T\sigma _L\left ( \mathbf{W}_L\left ( \cdots \sigma _1\left ( \mathbf{W}_1f_{BI}\left ( \mathbf{V}_x \right )+\mathbf{b}_1 \right )\cdots \right )+\mathbf{b}_L \right ) y^​NFM​(x)=w0​+i=1∑n​wi​xi​+hTσL​(WL​(⋯σ1​(W1​fBI​(Vx​)+b1​)⋯)+bL​)

其中, Θ = { w 0 , { w i , v i } , h , { W l , b l } } \Theta =\left \{ w_0,\left \{ w_i,\mathbf{v}_i \right \},\mathbf{h},\left \{ \mathbf{W}_l,\mathbf{b}_l \right \} \right \} Θ={w0​,{wi​,vi​},h,{Wl​,bl​}}为模型的参数。

3. 总结

通过上述的拆分会发现NFM与FM以及Wide & Deep模型之间有着很大的相似性,不同在于NFM中不光包含了FM中的二阶特征,同时利用DNN的特性构造更高阶非线性的交叉,总体而言,主要还是集中在特征交叉的工作上。

参考文献

[1] He X , Chua T S . Neural Factorization Machines for Sparse Predictive Analytics[J]. ACM SIGIR FORUM, 2017, 51(cd):355-364.

Read more

60个“特征工程”计算函数(Python代码)

60个“特征工程”计算函数(Python代码)

转自:coggle数据科学 近期一些朋友询问我关于如何做特征工程的问题,有没有什么适合初学者的有效操作。 特征工程的问题往往需要具体问题具体分析,当然也有一些暴力的策略,可以在竞赛初赛前期可以带来较大提升,而很多竞赛往往依赖这些信息就可以拿到非常好的效果,剩余的则需要结合业务逻辑以及很多其他的技巧,此处我们将平时用得最多的聚合操作罗列在下方。 最近刚好看到一篇文章汇总了非常多的聚合函数,就摘录在下方,供许多初入竞赛的朋友参考。 聚合特征汇总 pandas自带的聚合函数 * 其它重要聚合函数 其它重要聚合函数&分类分别如下。 def median(x):     return np.median(x) def variation_coefficient(x):     mean = np.mean(x)     if mean != 0:         return np.std(x) / mean     else:         return np.nan def variance(x):     return

By Ne0inhk
90w,确实可以封神了!

90w,确实可以封神了!

要说24年一定最热的技术,还得是AIGC! 前段时间阿里旗下的开源项目,登上GitHub热榜! AI大热,如今ChatGPT的优异表现,必然会出现各种细分场景应用的工具软件,和大量岗位项目! 山雨欲来风满楼,强人工智能的出现,所有科技公司已经开始巨量扩招此领域的人才。算法的岗位,近三个月已经增长68%!这件事在HR届也是相当震撼的。 目前各行各业都不景气的市场,人工智能岗位却一直保持常青!甚至同属AI边缘岗都比其他岗薪资高40%! 与此同时,AI算法岗上岸也不简单,竞争激烈,好公司核心岗位不用说,谁都想去。 所以事实就是,想要上岸,门槛也逐渐变高,项目经历、实习经历都很重要,越早明白这个道理就越能提前建立起自己的优势。 但我在b站逛知识区的时候,经常看到有些同学,因为一些客观原因导致无法参加实习,这种情况下,如果你想提升背景,增加项目经历的话,可以试试这个《CV/NLP 算法工程师培养计划》。 目前已经有上千位同学通过该计划拿到offer了,最新一期学员就业薪资最高能拿到78K!年薪94w! 优势就是有BAT大厂讲师带领,手把手带做AI真实企业项目(包含CV、NLP等

By Ne0inhk
再见nohup!试试这个神器,Python Supervisor!

再见nohup!试试这个神器,Python Supervisor!

👇我的小册 45章教程:() ,原价299,限时特价2杯咖啡,满100人涨10元。 作者丨Ais137 https://juejin.cn/post/7354406980784373798 1. 概述 Supervisor 是一个 C/S 架构的进程监控与管理工具,本文主要介绍其基本用法和部分高级特性,用于解决部署持久化进程的稳定性问题。 2. 问题场景 在实际的工作中,往往会有部署持久化进程的需求,比如接口服务进程,又或者是消费者进程等。这类进程通常是作为后台进程持久化运行的。 一般的部署方法是通过 nohup cmd & 命令来部署。但是这种方式有个弊端是在某些情况下无法保证目标进程的稳定性运行,有的时候 nohup 运行的后台任务会因为未知原因中断,从而导致服务或者消费中断,进而影响项目的正常运行。 为了解决上述问题,通过引入 Supervisor 来部署持久化进程,提高系统运行的稳定性。 3. Supervisor 简介 Supervisor is a client/

By Ne0inhk
第一本给程序员看的AI Agent图书上市了!

第一本给程序员看的AI Agent图书上市了!

AI Agent火爆到什么程度? OpenAI创始人奥特曼预测,未来各行各业,每一个人都可以拥有一个AI Agent;比尔·盖茨在2023年层预言:AI Agent将彻底改变人机交互方式,并颠覆整个软件行业;吴恩达教授在AI Ascent 2024演讲中高赞:AI Agent是一个令人兴奋的趋势,所有从事AI开发的人都应该关注。而国内的各科技巨头也纷纷布局AI Agent平台,如:钉钉的AI PaaS、百度智能云千帆大模型平台等等。 Agent 是未来最重要的智能化工具。对于程序员来说,是时候将目光转向大模型的应用开发了,率先抢占AI的下一个风口AI Agent。 小异带来一本新书《大模型应用开发 动手做 AI Agent》,这本书由《GPT图解》的作者黄佳老师创作,从0到1手把手教你做AI Agent。现在下单享受5折特惠! ▼点击下方,即可5折起购书 有这样一本秘籍在手,程序员们这下放心了吧,让我们先来揭开 Agent 的神秘面纱。 AI Agent 面面观

By Ne0inhk