Skip to content

优化基本理论与方法

核心课程,要好好学

怎么不说评分也不布作业呢

与机器学习之间的关系

  • 机器学习:训练映射,最小化损失函数
  • 凸优化:最小化损失函数的优化方法

  • 机器学习的任务主要分为分类(离散)和回归(连续)


分类(Classification)- 0,1 损失

  • 分到正确的类 - 损失为 0
  • 反之损失为 1
  • 0,1 情况下,最小化损失函数是 np 问题,不好解决
  • 常用 Hinge Loss 替代,更好计算
  • 其他的 Loss 函数
    • Squre loss
    • Logistic loss
    • Cross entropy loss(交叉熵)

最大似然估计(Maximum Likelihood Estimation View)

对数化把积转化为和

一般范式

更细的分类

  • 有约束问题
  • 无约束问题
  • 光滑问题:\(f_i(x)\) 都可微

  • 最优解 - 全局最优解

  • 局部解 - 局部最优解

一个常用于证明的方法 - 对任何输入,返回 x = 0

不同类型的 oracle

  • 零阶
  • 一阶
  • 二阶

迭代法

alt text

上述方案有两个最昂贵的步骤

  • 解析复杂性
  • 算数复杂性

n 维箱子约束问题

用无穷范数测量距离

Lipschitz 连续

均匀网格法

构造 \((p+1)^n\) 个点,找出最小的点

  • 零阶迭代方法
  • 定理

上下界估计