当前课程知识点:优化设计 > 第二章 优化设计的极值理论与数学基础 > 2.2 多元函数的泰勒展开 > 2.2 多元函数的泰勒展开
接下来 我们介绍多元函数的Taylor展开
Taylor展开的目的
首先大家在大学的高等数学里面
都学过Taylor展开对不对
那到底Taylor展开
我们在回忆Taylor展开干什么用的
Taylor展开是把任意复杂的函数
能够近似的表示为一个简单的多项式形式
便于分析计算使问题简化
是吧变成多项式形式的话我们计算机好求解
不就是x的相乘吗
你乘n次我这个很好做对吧
计算机对于加减乘除很好做
同时呢如果我们再进行分析的话我们也很好做
对于一个多项式形式
求求导是个很好求导啊
不用记那么多的什么cos sin
还有对数都不用记那么多了
求导也好求 分析也好分析
所以说呢Taylor展开的目的很简单
就是把任意复杂的函数
近似的表示成一个简单的多项式形式
便于分析计算使问题简化
回想我们在高等数学上学习
其实到最后就是n=1
在n=1一元函数f(x)在xk点处
在这一点处的
如果说它存在1到n阶导数
首先要存在1到n阶导数
则Taylor展开形式为什么
f(x)等于f(xk)加上f一撇xk
乘以x减去xk加上2的阶乘
f两撇xk x-xk的平方
加上3的阶乘f三撇xk x-xk的三次方等等等等
一直加到n的阶乘分之一
f(xk)x-xk的n次方
后面加一个常数项
实际上我们可以用等号来表示
那具体分析一下什么我们看一下
实际上对于如果给定了你一个点xk
这个xk这一点是不给定的 是定值
所以说呢我代进去以后
f(xk)是不就出来了 这是个定值
你看这是个常数项
我们分析下这个式子你看 这是个常数项
f一撇xk本来f一撇x也是x的一个函数
但是你把xk定值代进去以后
是不这也是一个常数项
那有x减xk的平方 x的二次项平方项二次项
那实际上这里面还包括三次项
那这里面也包括一次项
一次项可以跟一次项合并
所以说看出来这样子做完以后
最后出来的是什么
一定是一个常数项一次项二次项三次项
是它的一个n次的多项式
那么这是我们的Taylor展开
对于n等于1元函数的Taylor展开
那如果对于多元函数呢我们没有学
那么这里面呢我们来给大家看看对于多元函数
多元函数fx在xk点处的Taylor展开
如果说我们只取两项的话
不再往后取是什么形式呢
是这个形式
f(x)约等于什么
我只取两项
不是像那样无穷取下去
那么这里边我们用的是等号
则f(x)等于f(xk)加上�f(xk)
转置x-xk加上二分之一的
实际上就2的阶乘的x-xk的转置
乘以Hxk x减去xk等于它
然后呢我们再分析下这个形式
首先是多元函数的话
这里的就不是一元函数的小x
变成什么大X
大X什么东西
大X是X1 X2到Xn的转置对不对
那这大X所以它是一个矢量
那么这里用大X表示
那么再一个我们这里边的xk代进去
那好了有这样其实我们看一看什么
我们看两个对比一下
f(x)f(x)f(xk) f(xk)没有问题
x减xk x减xk
x是变量 xk是那个点处那个常量
对吧没有问题
是不是我们这里的f一撇xk
和�f(xk)是不就好像差不多对不对
回忆一下�f(x)什么东西
不就是?f比?x1 ?f比?x2吗
不就一阶导吗
也是一阶偏导吗
所以说是一样
只是这里边由于是向量形式
所以你要考虑是
行向量列向量相乘怎么相乘
你不能两个行向量相乘 乘不出来对不对
你不能两列向量相乘 乘不出来的
所以说变成什么它的转置
同样的我们看一下二阶的
二的阶乘二的阶乘没有问题
二的阶乘和二分之一是一样的
二乘以一分之一和二分之一是一样的
这两个是一样
x-xk的平方
因为我这里边是一个向量形式怎么办
是不不能我还是意思
不能两个列向量相乘对不对
变成什么了
是不左乘一个转置右乘一个向量
是不还是两个相乘是一个平方项吗
左乘一个右乘一个没有问题
那中间的Hxk是不是就跟它是类比的了
对吧它两个是类比
所以说呢Hxk大家能够什么
感觉所有感性认识的Hxk是什么东西
应该是二阶导对吧
Hxk应该是二阶导
那我们知道什么呢
Hxk就等于�平方f(x)
实际上不是就是我们符号这么个符号
实际上什么是对于什么梯度类似梯度
那实际上我们求二阶导不也是这样吗
对一阶导再求一阶导吗一样的
所以说呢它是二阶导
我们把f(x)称为是f(x)
在x点处的Hessian矩阵
这里边我们翻译成海赛矩阵 或者Hessian矩阵
Hxk等于�平方f(xk)
是f(x)在xk点处的Hessian矩阵
实际上就是二阶导的范畴
那到底它怎么求呢
我们把它给类比出来以后
也能感性的认识到它到底是什么样的一个性质
或什么样的一个类型属于那一类
那么到底怎么求呢
我们说在任意一点x点处呢
Hessian矩阵呢是这个东西
看起来很复杂一个大的矩阵
一个方阵看起来很复杂
但是仔细分析一下呢又很简单什么
?f比?x1然后呢再?f
?f比?x1的二阶导
然后呢你看这一行向量
这一行是不全是首先是?f比?x1
无非是?f比?x1 ?f比?x1
?f比?x1 ?f比?x2
?f比?x1 ?f比?x3等等等等
一直到?f比?x1到?f比?xn
它第二行什么
?f比?x2 ?f比?x1
然后呢?f比?x2 ?f比?x2
一直到?f比?x2再求一阶导
?f比?xn
第二行都是先做?f比?x2
然后在?x1 ?x2一直到?xn
以此类推到最后一行先求?f比?xn
然后再?x1 ?x2到?xn
所以这么一分析这个方阵就记住了
那么记住这个方阵以后实际上我们什么
我们把Taylor展开
由你们之前所学的n等于1的Taylor展开
推广到了n等于任意维的
那么具体再分析这个方阵
我们看到因为?f比?xi再?xj
等于?f比?xj
?xi大家都知道对不对
所以说Hessian矩阵是一个
n乘以n阶的实对称矩阵
那意思就是说你求一个上三角形就够了
或求下三角形它是个实对称矩阵
你求一个这样子的一个上三角形
把它这一堆求出来
或者是把下三角形求出来就可以了
只要求这一半就行
它是对称值 而且是n乘以n阶的
看一个例子吧
让你求f(x)等于x1的3次方
减x2的3次方加三倍的x1平方加上三倍x2平方
减9x1的�f(x)和Hf(x)
怎么求啊这
很简单是吧你既然求它的话那就怎么求
代定义呗代定义就行了
因为现在只学了定义
�f(x)等于?f比?x1 ?f比?x2
代进去就行了呗
?f比?x1等于什么
x1的三次方求偏导等于三倍的x1平方对不对
x2的三次方对x1偏导等于几
等于0对不对因为没有x1吗
对于x1它是常数吗所以是等于0
3x1平方变成了六倍的x1对吧
然后减9x1减9
然后对x2求偏导这一项是等于0
这一项等于负的三倍x2的平方
然后呢这一项呢是不也等于0了
你没有x2吗这一项不等于0么
然后三倍的x2平方变成了六倍x2
减9x1没有x2所以等于0
就是它的这个梯度
那么有了梯度以后
我要求Hessian矩阵怎么求
是不对它再求一阶导就行了
对这个东西再对x1求再对x2求
对它的再对x1求再对x2求就行了
它对x1再求是不对它对x1再求啊
求完等于多少
六倍的x1加6
减9等于0了吗
没有常量那个0了吗
然后这个式子再对x2求
是不里面一个x2都没有啊
那就是0呗
那么这个式子对x1求是不没有x1项啊
那就是0么
然后这个式子再求负的六倍x2加6相等
是一个2乘以2的一个实对称阵
那好了我们有了这个
求完后我们看一个Taylor展开的例子
将f(x)等于x1平方减去2倍的x1x2
加x2的平方减去8倍的x1加9倍x2加10
哪点处呢 0 0点处
在这一点处的Taylor展开
那怎么求呢
多元函数的Taylor展开我们代公式就可以了
那么这里边公式我们记得是
f(x)加上�f(x)和Hessian矩阵
所以我们要把什么
要把它的梯度和Hessian矩阵求出来
所以说呢跟刚才一样
先求�f(x)等于?f比?x1 ?f比?x2代进去求
这里边呢x1平方是2倍x1
刚好这里边减2x1乘以x2
这里对x1求偏导变成了2倍x2了
对x2求偏导等于减2倍的x1了对吧
然后后面再求等于它然后把什么
把x0等于0 0点处代到这里头
得到负8 9 有值了
同样求Hessian矩阵
对于这个东西再求Hessian矩阵的话
实际上对它对x1求偏导
是不是2 这没有这没有就是2
它对x2求偏导这个没有这个没有是负2
那么这个负2这个地方一定是负2
对它对x2求偏导是2
它不用代就是一个就是这样一个值了
那所以说呢我们代公式
f(x)等于10
这10怎么来的
实际上就代进去呗
记得这个10不就f(x)吗f(xk)吗
把这个00点代进去就行了对不对
0-0+0-0+0+10吗就等于10
就f(xk)吗
f(xk)加上�f(x)的转置
x减去x0加上二分之一的x减x0的梯度
Hx0 x减x0
你看左乘一个右乘一个乘以它
实际上代进去大家一看就能运算
你这样做还是能运算是吧
这是一个方阵
然后左乘一个转置右乘一个这么做
那么代进去以后整理一下
那么就是这样子去把什么
在这一点处Taylor展开给写出来
-1.1 优化设计概述
-1.2 优化设计的数学模型
-1.3 最优化问题几何解释
-第一章 讨论
--第一章讨论
-第一章 作业
--第一章 作业
-2.1 函数的梯度
-2.2 多元函数的泰勒展开
-2.3 二次函数
--2.3 二次函数
-2.4 无约束优化问题的极值条件
-2.5 凸函数
--2.5 凸函数
-2.6 约束优化问题的极值条件
-2.7 优化设计方法的基本思想与迭代终止准则
-第二章 讨论
--第二章讨论
-第二章 作业
--第二章 作业
-3.1 搜索区间的确定及区间消去法原理
-3.2 黄金分割法
-第三章 讨论
--第三章讨论
-第三章 作业
--第三章 作业
-4.1 共轭方向法及其改进
-4.2 梯度法
--4.2 梯度法
-4.3 牛顿法
--4.3 牛顿法
-4.4 变尺度法
--4.4 变尺度法
-第四章 讨论
--第四章讨论
-第四章 作业
--第四章 作业
-5.1 复合形法
--5.1 复合形法
-5.2 惩罚函数法
-第五章 作业
--第五章 作业
-6.1 遗传算法
--6.1 遗传算法
-6.2 人工神经网络与神经网络优化算法
-第六章 作业
--第六章 作业
-7.1 实例
--7.1 实例1
--7.2 实例2
-第七章 作业
--第七章 作业
-期末考试
--期末考试