境外开放课程——按学科专业列表
开放课程→工程与技术科学→计算机科学技术→人工智能::
16
17
Robust Near-Separable Nonnegative Matrix Factorization Using Linear Optimization[基于线性优化的鲁棒近可分非负矩阵分解]
Nicolas Gillis(卢万天主教大学) 最近,非负矩阵因子分解(NMF)已被证明在可分性假设下是可处理的,这相当于输入数据矩阵的列属于由少量列生成的凸锥。Bittorf、Recht、R´e和Tropp(“用线性规...
热度:14
Nicolas Gillis(卢万天主教大学) 最近,非负矩阵因子分解(NMF)已被证明在可分性假设下是可处理的,这相当于输入数据矩阵的列属于由少量列生成的凸锥。Bittorf、Recht、R´e和Tropp(“用线性规...
热度:14
18
Approval Voting and Incentives in Crowdsourcing[众包中的审批投票和激励措施]
Nihar B. Shah(加州大学伯克利分校) 对标记训练数据的需求日益增长,使得众包成为机器学习的重要组成部分。然而,众包标签的质量受到三个因素的不利影响:(1)工人不是专家;(2) 工人的激励措施...
热度:8
Nihar B. Shah(加州大学伯克利分校) 对标记训练数据的需求日益增长,使得众包成为机器学习的重要组成部分。然而,众包标签的质量受到三个因素的不利影响:(1)工人不是专家;(2) 工人的激励措施...
热度:8
19
Classification and Clustering via Dictionary Learning with Structured Incoherence and Shared Features[基于结构不连贯和共享特征的字典学习的分类和聚类]
Pablo Sprechmann(明尼苏达大学) 基于结构不连贯和共享特征的字典学习的分类和聚类
热度:13
Pablo Sprechmann(明尼苏达大学) 基于结构不连贯和共享特征的字典学习的分类和聚类
热度:13
20
Learning Overcomplete Latent Variable Models through Tensor Methods[用张量方法学习超完全潜变量模型]
Animashree Anandkumar(加州大学欧文分校) 我们为学习强调过完备状态的潜在变量模型提供了保证,其中潜在空间的维度超过了观察到的维度。特别地,我们考虑多视点混合、ICA和稀疏编码模型。我们的主要工具...
热度:12
Animashree Anandkumar(加州大学欧文分校) 我们为学习强调过完备状态的潜在变量模型提供了保证,其中潜在空间的维度超过了观察到的维度。特别地,我们考虑多视点混合、ICA和稀疏编码模型。我们的主要工具...
热度:12
21
Lecture 14 - The Factor Analysis Model[第14讲-因子分析模型]
Andrew Ng(斯坦福大学) 因子分析模型,用于因子分析的0 EM,主成分分析(PCA),作为降维算法的PCA,PCA的应用,使用PCA的人脸识别
热度:8
Andrew Ng(斯坦福大学) 因子分析模型,用于因子分析的0 EM,主成分分析(PCA),作为降维算法的PCA,PCA的应用,使用PCA的人脸识别
热度:8
22
Variational Gaussian Process[变分高斯过程]
Dustin Tran(哥伦比亚大学) 变分推理是一种强大的近似推理工具,最近它被应用于深度生成模型的表示学习。我们发展了变分高斯过程(VGP),这是一个贝叶斯非参数变分族,它调整其形状以匹配...
热度:58
Dustin Tran(哥伦比亚大学) 变分推理是一种强大的近似推理工具,最近它被应用于深度生成模型的表示学习。我们发展了变分高斯过程(VGP),这是一个贝叶斯非参数变分族,它调整其形状以匹配...
热度:58
23
24
Deep siamese neural network for prediction of long-range interactions in chromatin[用于预测染色质长程相互作用的深度暹罗的神经网络]
Davide Chicco(玛格丽特公主癌症中心) 用于预测染色质长程相互作用的深度暹罗的神经网络
热度:14
Davide Chicco(玛格丽特公主癌症中心) 用于预测染色质长程相互作用的深度暹罗的神经网络
热度:14
25
Emergent Networks as Distributed Reputation System[作为分布式信誉系统的突发网络]
David Hales(博洛尼亚大学) 作为分布式信誉系统的突发网络
热度:13
David Hales(博洛尼亚大学) 作为分布式信誉系统的突发网络
热度:13
26
Recombinator Networks: Learning Coarse-to-Fine Feature Aggregation[重组网络:从粗到细的特征聚合学习]
Sina Honari(蒙特利尔大学) 重组网络:从粗到细的特征聚合学习
热度:10
Sina Honari(蒙特利尔大学) 重组网络:从粗到细的特征聚合学习
热度:10
27
Learning to Rank on a Cluster using Boosted Decision Trees[使用提升决策树在聚类上学习排序]
Krysta M. Svore(微软研究院) 使用提升决策树在聚类上学习排序
热度:14
Krysta M. Svore(微软研究院) 使用提升决策树在聚类上学习排序
热度:14
28
29
Learning to Rank Using Gradient Descent[学习使用梯度下降排序]
Chris Burges(微软研究院) 我们研究了使用梯度下降法学习排序函数;我们提出了一个简单的概率成本函数,并引入了RankNet(排名网),这是一个使用神经网络对底层排名函数建模的实现。我们给...
热度:16
Chris Burges(微软研究院) 我们研究了使用梯度下降法学习排序函数;我们提出了一个简单的概率成本函数,并引入了RankNet(排名网),这是一个使用神经网络对底层排名函数建模的实现。我们给...
热度:16
30
Modern Convex Optimization Methods for Large-scale Empirical Risk Minimization[大规模经验风险最小化的现代凸优化方法]
Mark Schmidt(不列颠哥伦比亚大学计算机科学系) 本教程回顾了通过(正则化)经验风险最小化来训练(线性)预测器的凸优化的最新进展。我们专注于实际有效的方法,这些方法也配备了复杂性界限,确认算法适用于解决大...
热度:17
Mark Schmidt(不列颠哥伦比亚大学计算机科学系) 本教程回顾了通过(正则化)经验风险最小化来训练(线性)预测器的凸优化的最新进展。我们专注于实际有效的方法,这些方法也配备了复杂性界限,确认算法适用于解决大...
热度:17