0


学习良好的编辑相似性和泛化保证

Learning Good Edit Similarities with Generalization Guarantees
课程网址: http://videolectures.net/ecmlpkdd2011_bellet_guarantees/  
主讲教师: Aurélien Bellet
开课单位: 圣艾蒂安大学
开课时间: 2011-11-30
课程语种: 英语
中文简介:
相似性和距离函数对于许多学习算法是必不可少的,因此训练它们引起了很多兴趣。当涉及处理结构化数据(例如,字符串或树)时,编辑相似性被相似度和距离函数是许多学习算法的关键,因此对它们进行训练引起了广泛的兴趣。当涉及到处理结构化数据(例如字符串或树)时,编辑相似性被广泛使用,并且存在一些学习它们的方法。然而,这些方法并不能从理论上保证结果相似性的泛化性能和判别能力。最近,一个理论的学习与(ε,γ,τ)改善情况相似函数提出了。这一新理论弥补了相似函数的性质与其分类性能之间的差距。在本文中,我们提出一个新颖的编辑相似性学习方法(GESL)驱动的想法(ε,γ,τ)善良,它允许我们获得泛化担保使用均匀稳定性的概念。实验结果表明,用该方法获得的编辑相似度分类模型比用最先进的方法获得的编辑距离或编辑相似度分类模型更精确、更稀疏。广泛使用,并且存在一些用于学习它们的方法。然而,这些方法对于所得相似性的泛化性能和判别力没有提供理论上的保证。最近,提出了一种具有(ε,γ,τ)良好相似函数的学习理论。这一新理论弥合了相似性函数的性质与其在分类中的表现之间的差距。在本文中,我们提出了一种新的编辑相似性学习方法(GESL),它由(ε,γ,τ)优点的概念驱动,这使我们能够使用均匀稳定性的概念推导出泛化保证。我们通过实验证明,用我们的方法学习的编辑相似性导致分类模型比编辑距离引起的分类模型更准确和更稀疏,或者编辑用现有技术方法学习的相似性。
课程简介: Similarity and distance functions are essential to many learning algorithms, thus training them has attracted a lot of interest. When it comes to dealing with structured data (e.g., strings or trees), edit similarities are widely used, and there exists a few methods for learning them. However, these methods offer no theoretical guarantee as to the generalization performance and discriminative power of the resulting similarities. Recently, a theory of learning with (ε, γ, τ)-good similarity functions was proposed. This new theory bridges the gap between the properties of a similarity function and its performance in classification. In this paper, we propose a novel edit similarity learning approach (GESL) driven by the idea of (ε, γ, τ)-goodness, which allows us to derive generalization guarantees using the notion of uniform stability. We experimentally show that edit similarities learned with our method induce classification models that are both more accurate and sparser than those induced by the edit distance or edit similarities learned with a state-of-the-art method.
关 键 词: 相似性; 距离函数; 结构化数据; 编辑相似性学习方法
课程来源: 视频讲座网
最后编审: 2019-10-17:cwx
阅读次数: 45