一起源码网

  • www.171739.xyz
  • 全球最大的互联网技术和资源下载平台
搜索
一起源码网 门户 科技前沿 查看主题

Structural Learning with Amortized Inference

发布者: 云文章 | 发布时间: 2020-1-24 03:30| 查看数: 4768| 评论数: 1|帖子模式

 Chang et al. 2015提出加速结构化学习的近似算法AI-DCD,通过缓存整数线性规划中相似的问题及解,减少对ILP solver的调用次数,从而加速训练,同时不损失精度。

每个词语是实体的概率如表格所示,ILP的转化方法为:

这里的y都是二值向量中的元素,对应于论文中的z。最后一个式子是约束配偶关系只能成立于两个人名之上。

一些特殊的结构(如标注序列)允许将推断问题转化为搜索问题,然后通过高效精确的算法(如维特比算法)解决。而其他场景下的推断问题则是计算代价昂贵的,所以希望得到缓解。

Srikumar, Kundu, and Roth 2012发现(1)不同的目标函数常常导致相同的解,(2)哪怕所有可能的结构是指数级,实际上成立的只有少数。他们通过刻画那些共享式(2)中相同解的问题来加速推断。

他们提出了下列理论:

利用Amortized Inference加速训练

以前的研究大多将推断过程当成黑盒子,作者提出应当结合具体模型设计算法:用于结构化SVM的AI-DCD(Amortized Inference framework for Dual Coordinate Descent)和用于结构化感知机的AI- SP(Amortized Inference for Structured Perceptron)。

加速结构化SVM

加速结构化感知机

同为在线学习算法,可应用类似的缓存技巧。

试验

在实体关系抽取任务上应用平摊推断技巧到结构化SVM上:

黑线是朴素方法对ILP solver的调用次数,蓝线是理论上所需的最低调用次数(样本的结构数量),红线是平摊推断算法的调用次数。

在提高推断速度的同时,AI-DCD并没有损失精确度:

References

[1]K.-W. Chang, S. Upadhyay, G. Kundu, and D. Roth, “Structural Learning with Amortized Inference.,” AAAI, 2015.

http://web.cs.ucla.edu/~kwchang/TAAI17.pdf

原文:http://www.hankcs.com/ml/structural-learning-with-amortized-inference.html

 

最新评论

szxlzx 发表于 2022-8-18 12:15
源代码怎么下载网页视频

一起源码让程序更轻更快

www.171739.xyz

工作时间 周一至周六 8:00-17:30

侵权处理

客服QQ点击咨询

关注抖音号

定期抽VIP

Copyright © 2016-2021 https://www.171739.xyz/ 滇ICP备13200218号

快速回复 返回顶部 返回列表