优化基本理论与方法
核心课程,要好好学
怎么不说评分也不布作业呢
与机器学习之间的关系
- 机器学习:训练映射,最小化损失函数
-
凸优化:最小化损失函数的优化方法
-
机器学习的任务主要分为分类(离散)和回归(连续)
分类(Classification)- 0,1 损失
- 分到正确的类 - 损失为 0
- 反之损失为 1
- 0,1 情况下,最小化损失函数是 np 问题,不好解决
- 常用 Hinge Loss 替代,更好计算
- 其他的 Loss 函数
- Squre loss
- Logistic loss
- Cross entropy loss(交叉熵)
最大似然估计(Maximum Likelihood Estimation View)
对数化把积转化为和
一般范式
更细的分类
- 有约束问题
- 无约束问题
-
光滑问题:\(f_i(x)\) 都可微
-
最优解 - 全局最优解
- 局部解 - 局部最优解
一个常用于证明的方法 - 对任何输入,返回 x = 0
不同类型的 oracle
- 零阶
- 一阶
- 二阶
迭代法
上述方案有两个最昂贵的步骤
- 解析复杂性
- 算数复杂性
n 维箱子约束问题
用无穷范数测量距离
Lipschitz 连续
均匀网格法
构造 \((p+1)^n\) 个点,找出最小的点
- 零阶迭代方法
- 定理