境外开放课程——按学科专业列表
开放课程→自然科学→数学→计算数学::
1
Lecture 1: Previous Knowledge Recommended (Matlab)[第1讲:之前的知识推荐(Matlab)]
Brad G. Osgood(斯坦福大学) 我们正在广播。可以。欢迎大家。正如你在电视上说的,但是为了确保大家都知道,这是EE261,傅里叶变换及其应用,傅里叶变换等。我叫布拉德·奥斯古德。。。
热度:59
Brad G. Osgood(斯坦福大学) 我们正在广播。可以。欢迎大家。正如你在电视上说的,但是为了确保大家都知道,这是EE261,傅里叶变换及其应用,傅里叶变换等。我叫布拉德·奥斯古德。。。
热度:59
2
Math 2B: Calculus[数学2B:微积分]
Natalia Komarova(加州大学尔湾分校) 数学2B是单变量微积分的第二个季度,涵盖以下主题:定积分;定积分;定积分;定积分微积分的基本定理。集成的应用包括查找面积和体积。集成技术。无限的序列和级...
热度:106
Natalia Komarova(加州大学尔湾分校) 数学2B是单变量微积分的第二个季度,涵盖以下主题:定积分;定积分;定积分;定积分微积分的基本定理。集成的应用包括查找面积和体积。集成技术。无限的序列和级...
热度:106
3
Lecture 1: Overview Of Linear Dynamical Systems[Lecture 1:线性动力系统概述]
Stephen P. Boyd(斯坦福大学) 我实际上只是从一些开始-我将介绍班级的一些技巧,然后我们将开始。今天的演讲将是一场有趣的演讲,因此它并不代表班级。因此,在结束时,您将不去思考,“嗯,...
热度:106
Stephen P. Boyd(斯坦福大学) 我实际上只是从一些开始-我将介绍班级的一些技巧,然后我们将开始。今天的演讲将是一场有趣的演讲,因此它并不代表班级。因此,在结束时,您将不去思考,“嗯,...
热度:106
4
Large-scale Machine Learning and Stochastic Algorithms[机器学习和随机算法]
Léon Bottou(脸书公司) 该演示强调机器学习和传统优化方法之间的重要差异,并提出一些解决方案。第一部分讨论了两种渐近性质的相互作用:统计量和优化算法的相互作用。不太可能的优化算...
热度:46
Léon Bottou(脸书公司) 该演示强调机器学习和传统优化方法之间的重要差异,并提出一些解决方案。第一部分讨论了两种渐近性质的相互作用:统计量和优化算法的相互作用。不太可能的优化算...
热度:46
5
Polyhedral Approximations in Convex Optimization[凸优化中的多面体逼近 ]
Dimitri Bertsekas(麻省理工学院) 我们提出了一种通过多面体近似求解凸程序的统一框架。它包括经典方法,如切割平面,Dantzig Wolfe分解,束和单纯形式组合,但也包括这些方法的改进,以及非常适...
热度:85
Dimitri Bertsekas(麻省理工学院) 我们提出了一种通过多面体近似求解凸程序的统一框架。它包括经典方法,如切割平面,Dantzig Wolfe分解,束和单纯形式组合,但也包括这些方法的改进,以及非常适...
热度:85
6
Modified Belief Propagation: an Algorithm for Optimization Problems[改进信念传播:一种求解优化问题的算法]
Jort van Mourik(阿斯顿大学) 信念传播是众所周知的算法,用于解决各种优化问题,例如纠错码图着色和可满足性问题。它通常在复制对称近似成立的区域中工作良好,但在复制对称性中断时发生故障...
热度:108
Jort van Mourik(阿斯顿大学) 信念传播是众所周知的算法,用于解决各种优化问题,例如纠错码图着色和可满足性问题。它通常在复制对称近似成立的区域中工作良好,但在复制对称性中断时发生故障...
热度:108
7
Probabilistic Integration for Uncertainty Quantification in Differential Equation Models[微分方程模型不确定性量化的概率积分法 ]
Ben Calderhead(伦敦大学学院) 在这次演讲中,我讨论了最近与Oksana Chkrebtii,DaveCampbell教授和Mark Girolami教授的联合工作,我们在其中开发了用于求解微分方程组的概率形式。这使得现有...
热度:73
Ben Calderhead(伦敦大学学院) 在这次演讲中,我讨论了最近与Oksana Chkrebtii,DaveCampbell教授和Mark Girolami教授的联合工作,我们在其中开发了用于求解微分方程组的概率形式。这使得现有...
热度:73
8
Averaging algorithms and distributed optimization[平均算法与分布式优化 ]
John N. Tsitsiklis(麻省理工学院) 在分布式平均和一致性算法中,处理器通过用其邻居的值形成局部平均值来交换和更新某些值(或“估计”或“意见”)。在合适的条件下,此类算法收敛于一致(每个处...
热度:51
John N. Tsitsiklis(麻省理工学院) 在分布式平均和一致性算法中,处理器通过用其邻居的值形成局部平均值来交换和更新某些值(或“估计”或“意见”)。在合适的条件下,此类算法收敛于一致(每个处...
热度:51
9
Augmenting Dual Decomposition for MAP Inference[MAP推理的增广对偶分解 ]
André F. T. Martins(卡内基梅隆大学) 在本文中,我们提出将增广拉格朗日优化与双重分解方法相结合,以获得因子图上的近似MAP(最大后验)推断的快速算法。我们还展示了所提出的算法如何有效地处理(...
热度:53
André F. T. Martins(卡内基梅隆大学) 在本文中,我们提出将增广拉格朗日优化与双重分解方法相结合,以获得因子图上的近似MAP(最大后验)推断的快速算法。我们还展示了所提出的算法如何有效地处理(...
热度:53
10
The Dynamics of AdaBoost[AdaBoost动力学]
Cynthia Rudin(麻省理工学院) AdaBoost是最成功和最受欢迎的学习算法之一,它是一种分类算法,旨在从“弱”学习算法构建“强”分类器。就在九年前AdaBoost发展之后,科学家们基于边缘的推广边...
热度:76
Cynthia Rudin(麻省理工学院) AdaBoost是最成功和最受欢迎的学习算法之一,它是一种分类算法,旨在从“弱”学习算法构建“强”分类器。就在九年前AdaBoost发展之后,科学家们基于边缘的推广边...
热度:76
11
Generalized Principal Component Analysis (GPCA)[广义主成分分析(GPCA)]
Rene Vidal(约翰霍普金斯大学) 数据分割通常是鸡和蛋的问题。为了估计模型的混合,需要首先分割数据,并且为了分割数据,需要知道模型参数。因此,数据分割通常分两个阶段来解决.1。数据聚类和...
热度:176
Rene Vidal(约翰霍普金斯大学) 数据分割通常是鸡和蛋的问题。为了估计模型的混合,需要首先分割数据,并且为了分割数据,需要知道模型参数。因此,数据分割通常分两个阶段来解决.1。数据聚类和...
热度:176
12
Independent Component Analysis[独立成分分析]
Aapo Hyvärinen(赫尔辛基大学) 在独立分量分析(ICA)中,目的是将多维数据向量线性分解为尽可能统计独立的分量。对于非高斯随机向量,这种分解不等同于主成分分析所做的去相关,而是相当复杂...
热度:204
Aapo Hyvärinen(赫尔辛基大学) 在独立分量分析(ICA)中,目的是将多维数据向量线性分解为尽可能统计独立的分量。对于非高斯随机向量,这种分解不等同于主成分分析所做的去相关,而是相当复杂...
热度:204
13
Lecture 21: Hypothesis Testing and Random Walks[第21讲:假设检验和随机游走]
Robert G. Gallager(麻省理工学院) 顺序假设检验被视为随机游走示例。阈值假设检验与随机步行阈值区分开来。随机行走阈值概率由Chernoff边界分析。
热度:111
Robert G. Gallager(麻省理工学院) 顺序假设检验被视为随机游走示例。阈值假设检验与随机步行阈值区分开来。随机行走阈值概率由Chernoff边界分析。
热度:111
14
Lecture 20: Markov Processes and Random Walks [第20讲:马尔可夫过程和随机游走]
Robert G. Gallager(麻省理工学院) 在回顾稳态后,本讲座讨论了马尔可夫过程和串联M / M / 1队列的可逆性。然后介绍随机游走及其应用。
热度:168
Robert G. Gallager(麻省理工学院) 在回顾稳态后,本讲座讨论了马尔可夫过程和串联M / M / 1队列的可逆性。然后介绍随机游走及其应用。
热度:168
15
Information-Theoretic Metric Learning[信息论度量学习 ]
Jason Davis(斯坦福大学) 我们将度量学习问题表达为在马哈拉诺比斯距离函数约束下最小化两个多元高斯之间的微分相对熵。通过令人惊讶的等价,我们表明这个问题可以解决为低级内核学习问题...
热度:318
Jason Davis(斯坦福大学) 我们将度量学习问题表达为在马哈拉诺比斯距离函数约束下最小化两个多元高斯之间的微分相对熵。通过令人惊讶的等价,我们表明这个问题可以解决为低级内核学习问题...
热度:318