境外开放课程——按学科专业列表
开放课程→自然科学→数学::数学史 | 数理逻辑与数学基础 | 数论 | 代数学 | 代数几何学 | 几何学 | 拓扑学 | 数学分析 | 非标准分析 | 函数论 | 常微分方程 | 偏微分方程 | 动力系统 | 积分方程 | 泛函分析 | 计算数学 | 概率论 | 数理统计学 | 应用统计数学 | 运筹学 | 组合数学 | 离散数学 | 模糊数学 | 应用数学
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

Escaping the Local Minima via Simulated Annealing: Optimization of Approximately Convex Functions[通过模拟退火逃避局部极小值:近似凸函数的优化]
Tengyuan Liang() 我们考虑了在$\mathbb{R}^n$中一个有界凸集上只用函数求值来优化一个近似凸函数的问题。将问题简化为使用Hit-and-Run方法从\emph{近似}对数凹分布中采样,查询复...
热度:2
Tengyuan Liang() 我们考虑了在$\mathbb{R}^n$中一个有界凸集上只用函数求值来优化一个近似凸函数的问题。将问题简化为使用Hit-and-Run方法从\emph{近似}对数凹分布中采样,查询复...
热度:2

Exp-Concavity of Proper Composite Losses[适当复合损失的指数-凹凸性]
Parameswaran Kamalaruban() 基于专家建议的在线预测的目标是找到一种决策策略,在给定的专家池中,在任何结果序列上,它的表现几乎与最好的专家一样好。这个问题已经得到了广泛的研究,对于...
热度:3
Parameswaran Kamalaruban() 基于专家建议的在线预测的目标是找到一种决策策略,在给定的专家池中,在任何结果序列上,它的表现几乎与最好的专家一样好。这个问题已经得到了广泛的研究,对于...
热度:3

Faster Algorithms for Testing under Conditional Sampling[条件抽样下更快的测试算法]
Ananda Theertha Suresh() 最近,对于运行时和样本需求在域大小$k$上是次线性的分布测试,人们产生了相当大的兴趣。我们在条件抽样模型下研究了两个最重要的测试,其中每个查询指定域的一...
热度:2
Ananda Theertha Suresh() 最近,对于运行时和样本需求在域大小$k$上是次线性的分布测试,人们产生了相当大的兴趣。我们在条件抽样模型下研究了两个最重要的测试,其中每个查询指定域的一...
热度:2

Fast Exact Matrix Completion with Finite Samples[有限样本的快速精确矩阵补全]
Praneeth Netrapalli() 矩阵补全是通过观察一个低秩矩阵的一小部分条目来恢复它的问题。最近的一系列作品{Keshavan2012,JainNS2013,Hardt2013}提出了基于快速非凸优化的迭代算法来解...
热度:2
Praneeth Netrapalli() 矩阵补全是通过观察一个低秩矩阵的一小部分条目来恢复它的问题。最近的一系列作品{Keshavan2012,JainNS2013,Hardt2013}提出了基于快速非凸优化的迭代算法来解...
热度:2

Fast Mixing for Discrete Point Processes[离散点过程的快速混合]
Patrick Rebeschini() 我们研究了从离散点过程中设计快速混合马尔可夫链蒙特卡罗算法的系统机制。这样的过程被定义为通过有界集合函数$f:2^V\rightarrow \mathbb{R}$在有限集合$V$的所...
热度:2
Patrick Rebeschini() 我们研究了从离散点过程中设计快速混合马尔可夫链蒙特卡罗算法的系统机制。这样的过程被定义为通过有界集合函数$f:2^V\rightarrow \mathbb{R}$在有限集合$V$的所...
热度:2

Monitoring Manhattan is traffic from 5 cameras?[通过5个摄像头监控曼哈顿的交通?]
Siheng Chen(KDD 2016研讨会) 有可能在曼哈顿的几个十字路口监控整个交通吗?本文提出了一系列新的图形数据处理技术来处理复杂和非光滑的交通数据。然后,我们在2014年和2015年期间在曼哈顿的...
热度:3
Siheng Chen(KDD 2016研讨会) 有可能在曼哈顿的几个十字路口监控整个交通吗?本文提出了一系列新的图形数据处理技术来处理复杂和非光滑的交通数据。然后,我们在2014年和2015年期间在曼哈顿的...
热度:3

From Averaging to Acceleration, There is Only a Step-size[从平均到加速,只有一个步长]
Nicolas Flammarion() 我们证明了非强凸问题的加速梯度下降法、平均梯度下降法和重球法可以重新表述为常参数二阶差分方程算法,其中系统的稳定性等价于以速率O(1/n^2)收敛,其中n为...
热度:3
Nicolas Flammarion() 我们证明了非强凸问题的加速梯度下降法、平均梯度下降法和重球法可以重新表述为常参数二阶差分方程算法,其中系统的稳定性等价于以速率O(1/n^2)收敛,其中n为...
热度:3

Generalized Mixability via Entropic Duality[基于熵对偶的广义可混性]
Mark Reid() 可混性是损失的一种性质,它表现在与专家建议进行预测的博弈中可能出现快速收敛的情况。我们证明了可混性的一个关键性质是一般化的,并且通常理论中存在的$\exp$...
热度:2
Mark Reid() 可混性是损失的一种性质,它表现在与专家建议进行预测的博弈中可能出现快速收敛的情况。我们证明了可混性的一个关键性质是一般化的,并且通常理论中存在的$\exp$...
热度:2

Label optimal regret bounds for online local learning[标记在线本地学习的最佳后悔界限]
Andrej Risteski() 我们解决了Christiano (2014b)在COLT ' 14中提出的关于在线局部学习可实现的后悔对标签集大小的最优依赖的开放性问题。在这个框架中,算法在每一步中显示一对...
热度:3
Andrej Risteski() 我们解决了Christiano (2014b)在COLT ' 14中提出的关于在线局部学习可实现的后悔对标签集大小的最优依赖的开放性问题。在这个框架中,算法在每一步中显示一对...
热度:3

Improved Sum-of-Squares Lower Bounds for Hidden Clique and Hidden Submatrix Problems[隐团和隐子阵问题的改进平方和下界]
Yash Deshpande() 给定一个大数据矩阵$ a \in\实数^{n\乘以n}$,我们考虑确定其元素是否为已知边际分布$ a的i.i.d的问题_{ij} \ sim P_0$,或者代替$A$包含主子矩阵$A_{\sC,\sC}$...
热度:1
Yash Deshpande() 给定一个大数据矩阵$ a \in\实数^{n\乘以n}$,我们考虑确定其元素是否为已知边际分布$ a的i.i.d的问题_{ij} \ sim P_0$,或者代替$A$包含主子矩阵$A_{\sC,\sC}$...
热度:1

Label optimal regret bounds for online local learning[标记在线本地学习的最佳后悔界限]
Andrej Risteski() 我们解决了Christiano (2014b)在COLT ' 14中提出的关于在线局部学习可实现的后悔对标签集大小的最优依赖的开放性问题。在这个框架中,算法在每一步中显示一对...
热度:3
Andrej Risteski() 我们解决了Christiano (2014b)在COLT ' 14中提出的关于在线局部学习可实现的后悔对标签集大小的最优依赖的开放性问题。在这个框架中,算法在每一步中显示一对...
热度:3

Laplacian Matrices of Graphs: Algorithms and Applications[图的拉普拉斯矩阵:算法和应用]
Daniel A. Spielman() 图的拉普拉斯矩阵出现在许多领域,包括机器学习,计算机视觉,优化,计算科学,当然还有网络分析。我们将解释这些矩阵是什么以及为什么它们出现在如此多的应用中...
热度:2
Daniel A. Spielman() 图的拉普拉斯矩阵出现在许多领域,包括机器学习,计算机视觉,优化,计算科学,当然还有网络分析。我们将解释这些矩阵是什么以及为什么它们出现在如此多的应用中...
热度:2

Learning and inference in the presence of corrupted inputs[在存在损坏输入的情况下进行学习和推理]
Yishay Mansour() 我们考虑一个模型,其中给定一个未损坏的输入,攻击者可以将其损坏为$m$损坏输入中的一个。我们将分类和推理问题建模为学习者(最小化预期误差)和对手(最大化...
热度:2
Yishay Mansour() 我们考虑一个模型,其中给定一个未损坏的输入,攻击者可以将其损坏为$m$损坏输入中的一个。我们将分类和推理问题建模为学习者(最小化预期误差)和对手(最大化...
热度:2

Learning Overcomplete Latent Variable Models through Tensor Methods[用张量法学习过完备潜变量模型]
Animashree Anandkumar() 我们为学习潜在变量模型提供了保证,强调了潜在空间的维数超过观测维数的过完备状态。特别地,我们考虑了多视图混合、ICA和稀疏编码模型。我们的主要工具是一种...
热度:2
Animashree Anandkumar() 我们为学习潜在变量模型提供了保证,强调了潜在空间的维数超过观测维数的过完备状态。特别地,我们考虑了多视图混合、ICA和稀疏编码模型。我们的主要工具是一种...
热度:2

Learning with Square Loss: Localization through Offset Rademacher Complexity[利用平方损失学习:通过偏移Rademacher复杂度进行定位]
Tengyuan Liang() 我们考虑具有平方损失的回归和不带有界假设的一般函数类。我们引入了偏移Rademacher复杂度的概念,它提供了一种透明的方法来研究期望和高概率的定位。对于任何(...
热度:2
Tengyuan Liang() 我们考虑具有平方损失的回归和不带有界假设的一般函数类。我们引入了偏移Rademacher复杂度的概念,它提供了一种透明的方法来研究期望和高概率的定位。对于任何(...
热度:2