基于pareto efficien的多目标优化解法之--- projected gradient method for nonconvex

本文是论文<< Convergence of a nonmonotone projected gradient method for nonconvex >>阅读笔记


近端梯度下降法 (Proximal Gradient Descent):

这种方法是讨论一种特定的凸优化问题

一般而言,近端梯度下降法常用于解决以下这类优化问题:
假设目标函数f(x)=g(x)+h(x)f(x) = g(x) + h(x)是由g(x)g(x)h(x)h(x)叠加而成,其中,限定g(x)g(x)是可微的凸函数, h(x)h(x)是不可微 (或局部不可微) 的凸函数。

我们会发现:次梯度法可能不会像我们所期许的那样,得到真正的稀疏解ww, 次梯度法只会使解的部分数值 (即ww的部分元素) 尽可能小 (尽可能接近00)。因此,只有选用近端梯度下降这类方法,我们才能获得稀疏解,并同时提升迭代过程的收敛性。


Quasi-Convex and Pseudo-Convex:

如图所示,

首先要理解拟凸(quasiconvex)和伪凸(pseudoconvex)的概念,
拟凸定义为:f(tx+(1t)y)maxf(x),f(y)f(tx + (1-t)y) \leq \max{f(x), f(y)}
伪凸定义为:f(tx+(1t)y)<maxf(x),f(y)f(tx + (1-t)y) < \max{f(x), f(y)}
两者是包含的关系。


上述两者于pareto efficient解的关系:

It can be verified by definition that when F is pseudoconvex, the condition (2.2) is also sufficient for a point to be weak Pareto efficient (or see [13]); but in general, it does not hold for quasiconvex functions (see [30]).


Quasi-Fejer convergence定义:

{uk}\{u_k\} satisfies Quasi-Fejer convergence iff

uk+1u2uku2+ϵk,||u_{k+1} - u||^2 \leq || u_k - u||^2 + \epsilon_k,

where

k=0+ϵk<,uU,URn,{ϵk}R+\sum_{k=0}^{+\infty}\epsilon_k < \infty, u\in U, U\subseteq\mathbb{R}^n, \{\epsilon^k\} \subseteq \mathbb{R}_+

现在只针对Algorithm 4.1进行算法的收敛分析,

Algorithm 4.1

xx^*{xk}\{x_k\}的accumulation point,

Theorem 4.2

Every accumulation point, if any, of the sequence {xk}\{x_k\} generated by Algorithm 4.1 is a Pareto stationary point.

待续…