博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
LSA/PLSA
阅读量:7045 次
发布时间:2019-06-28

本文共 2107 字,大约阅读时间需要 7 分钟。

引子

Bag-of-Words 模型是NLP和IR领域中的一个基本假设。在这个模型中,一个文档(document)被表示为一组单词(word/term)的无序组合,而忽略了语法或者词序的部分。BOW在传统NLP领域取得了巨大的成功,在计算机视觉领域(Computer Vision)也开始崭露头角,但在实际应用过程中,它却有一些不可避免的缺陷,比如:

  • 稀疏性(Sparseness): 对于大词典,尤其是包括了生僻字的词典,文档稀疏性不可避免;
  • 多义词(Polysem): 一词多义在文档中是常见的现象,BOW模型只统计单词出现的次数,而忽略了他们之间的区别;
  • 同义词(Synonym): 同样的,在不同的文档中,或者在相同的文档中,可以有多个单词表示同一个意思;

从同义词和多义词问题我们可以看到,单词也许不是文档的最基本组成元素,在单词与文档之间还有一层隐含的关系,我们称之为主题(Topic)。我们在写文章时,首先想到的是文章的主题,然后才根据主题选择合适的单词来表达自己的观点。在BOW模型中引入Topic的因素,成为了大家研究的方向,这就是我们要讲的Latent Semantic Analysis (LSA) 和 probabilitistic Latent Semantic Analysis (pLSA),至于更复杂的LDA和众多其他的Topic Models,以后再详细研究。

LSA简介

LSA的基本思想就是,将document从稀疏的高维Vocabulary空间映射到一个低维的向量空间,我们称之为隐含语义空间(Latent Semantic Space).

如何得到这个低维空间呢,和PCA采用特征值分解的思想类似,作者采用了奇异值分解(Singular Value Decomposition)的方式来求解Latent Semantic Space。标准的SVD可以写为:

Latex Equation:

N=U\Sigma V^t

201201111417311076.png

其中,U和V为正交矩阵,有:

Latex Equation:

U^tU=V^tV=I

201201111417329648.png

sigma是包含N的所有奇异值的对角矩阵。LSA降维的方式就是只取最大的K个奇异值,而其他置为0,于是得到了共生矩阵的近似: 

Latex Equation:

\widetilde{N}=U\widetilde{\Sigma }V^t

201201111417324631.png

下图形象的展示了LSA的过程:

201201111417329058.jpg

由LSA在训练集合上得到的参数,当一个新的文档向量到来时,我们可以利用下式将其原始term space映射到latent space:

Latex Equation:

\tilde{\vec{x}}=\tilde{\Sigma }^{
-1}V^t\vec{x}_{test}

201201111417324042.png

LSA的优点

  • 低维空间表示可以刻画同义词,同义词会对应着相同或相似的主题;
  • 降维可去除部分噪声,是特征更鲁棒;
  • 充分利用冗余数据;
  • 无监督/完全自动化;
  • 与语言无关;
LSA的不足
  • 没有刻画term出现次数的概率模型;
  • 无法解决多义词的问题;
  • SVD的优化目标基于L-2 norm 或者是 Frobenius Norm的,这相当于隐含了对数据的高斯噪声假设。而term出现的次数是非负的,这明显不符合Gaussian假设,而更接近Multi-nomial分布;
  • 对于count vectors 而言,欧式距离表达是不合适的(重建时会产生负数);
  • 特征向量的方向没有对应的物理解释;
  • SVD的计算复杂度很高,而且当有新的文档来到时,若要更新模型需重新训练;
  • 维数的选择是ad-hoc的;

pLSA(pLSI)简介

类似于LSA的思想,在pLSA中也引入了一个Latent class,但这次要用概率模型的方式来表达LSA的问题,如下图:

201201111417334532.jpg

pLSA的优势
  • 定义了概率模型,而且每个变量以及相应的概率分布和条件概率分布都有明确的物理解释;
  • 相比于LSA隐含了高斯分布假设,pLSA隐含的Multi-nomial分布假设更符合文本特性;
  • pLSA的优化目标是是KL-divergence最小,而不是依赖于最小均方误差等准则;
  • 可以利用各种model selection和complexity control准则来确定topic的维数;
pLSA的不足
  • 概率模型不够完备:在document层面上没有提供合适的概率模型,使得pLSA并不是完备的生成式模型,而必须在确定document i的情况下才能对模型进行随机抽样;
  • 随着document和term 个数的增加,pLSA模型也线性增加,变得越来越庞大;
  • 当一个新的document来到时,没有一个好的方式得到$p(d_i)$;
  • EM算法需要反复的迭代,需要很大计算量;

针对pLSA的不足,研究者们又提出了各种各样的topic based model, 其中包括大名鼎鼎的Latent Dirichlet Allocation (LDA)。

参考

 

转载于:https://www.cnblogs.com/kidoln/archive/2012/01/10/2317786.html

你可能感兴趣的文章
关于斐波那契数列的一些恒等式 模板 牛客OI测试赛 A 斐波拉契
查看>>
Uboot Beaglebone Black Usb驱动分析
查看>>
Python实战之列表list的详细简单练习2
查看>>
Mininet系列实验(三):Mininet命令延伸实验扩展
查看>>
Auto CAD 安装问题 “acad.exe - 系统错误 ”
查看>>
rsync入门使用
查看>>
bzoj1040 内向树DP
查看>>
谈谈Java工程师应该具有的知识
查看>>
记录在Centos下安装和使用Git的过程,从github上克隆仓库和提交。
查看>>
小技巧——优盘图标改变和背景改变
查看>>
异常集合
查看>>
软件工程课程总结
查看>>
JavaScript运算符和控制语句
查看>>
mysql权限管理
查看>>
UVA 12167 Proving Equivalences 强连通分量
查看>>
Jenkins Debian packages
查看>>
如何在Windows XP中设置自定义纸张
查看>>
三星S7562手机拨号时显示“未在网络上注册”是什么原因?
查看>>
熟悉HBase基本操作
查看>>
Flash Mobile Developing Android and iOS Applications
查看>>