当前课程知识点:线性代数(2) > 第九讲:Markov矩阵和正矩阵 > 9.4 正矩阵 > 9.4 正矩阵(第二部分)
好 下面我们来看
正矩阵的一个应用
1973年这个人
他获得了诺贝尔奖
那么他构造了一个输入输出模型
我们用个简单例子
来说明这个模型
假设有两个产业木材和电力
生产单位电需要0.4单位的电
和0.2单位的木材
生产单位木材需要0.2单位的电
和0.1单位的木材
我们可以用下面这个图来表示
那么这个图
可以提出一个矩阵
这个矩阵我们叫消耗矩阵
使用这个消耗矩阵呢
我们可以确切地计算
我们生产电和木材所需要的成本
我们设P等于x1 x2
也就是说我们希望
现在我们要生产出x1单位的电
和x2单位的木材
那么我们用A去乘上这个P
是什么意思呢
生产x1单位的电
需要0.4x1单位的电
生产x2单位的木材
需要0.2单位的x2单位的电
所以0.4x1+0.2x2
就表示生产这些电和这些木材
总共需要的电量
那么第二个呢
就是生产这些东西需要的木材
需要多少单位的木材
那么这整个就告诉我们
A乘P告诉我们
我们生产这些电和木材
所需要的成本
所以我们把AP叫成本向量
那么P-AP这样一个向量
就是结余
就是生产电和木材
去掉成本以后真正的结余的
那么我们希望这个结余
跟市场的需求是一样的
就是说d等于d1 d2
表示市场对电的需求是d1单位
对木材的需求为d2单位
如果I-A乘P等于d
那就表示结余和需求是一样的
这是理想状态
那么现在我们希望通过
这个矩阵A和市场的需求
我们来推出我们这个产量的
这个向量
应该生产多少电和木材
才能保证结余和需求一样
那么大家看如果I-A是可逆的
那么P就等于I-A的逆乘上d
当然我们还需要P是大于等于0的
我们为了刻画
A满足什么条件的时候
我们能得到这样一个P
也就得到一个P是大于等于0
而且I-A可逆
我们说A是有效率的
也就是说如果I-A是可逆的
而且I-A是个正矩阵
我们就说A是有效率的
我们来看一下A
在什么时候是有效率的
如果A是个n阶正矩阵
且A的每行元素它的和是小于1的
那么则A是有效率的
我们看我们刚才这个矩阵
是0.4 0.2 0.2 0.1
这样一个矩阵呢
它的每一行元素之和
都是小于1的
所以按照这个定理
我们刚才那个例子A是有效率的
我们来证明这个定理
我们来考虑所有分量都是1的
这样一个列向量
我们可以看到Ax是小于x的
因为A乘上x的每一个分量
就是A的每行元素之和
但是每行元素之和是小于1的
所以Ax小于x
这样我们就可以找到一个ε
足够小的一个正数
这个正数是用1-ε
Ax还是小于这个
这样我们递归的
两边不断地左乘A
最后我们可以看到
A的n次方x小于1-ε的n次方x
那么这个右边我们看到
它是趋于0的 趋于0
这个趋于0告诉我们
A的n次方x它的极限就是0
因为x呢 An乘x
实际上是An的每一行分量之和
而A是正矩阵
A的x次方每一行的分量之和
都是正数和
它趋于0表示An本身它的极限
就是等于0的
另一方面
我们看A是正矩阵
所以存在着α是大于0的
刚才我们那个定理
正矩阵定理
就是关于ρ(A)
有一个正的特征向量
那么从这个看出呢
A是正特征向量
那么A的n次方α等于ρ(A)次方nα
但是刚才我们看到
上面已经看到A的n次方
是趋于0的
所以我们可以看到ρ(A)
它的n次方也必须趋于0
也就是ρ(A)这个正数
它的长度小于1
我们刚才已经说过
如果A的长度
或者A的特征值的最大长度
是小于1的
那么A呢 它的n次方面的极限
就趋于0
那么我们现在是
根据这个倒过来推
如果A的n次方极限趋于0
那么ρ(A)就小于1
那么这时候我们就可以把I-A
它的特征值就不会等于0
为什么呢 因为I-A的特征值
就实际上是1-ρ(A)
作为它的上界
所以它不会等于0
因为它要等于0的话
A肯定有个特征值取到1
当A的特征值的最大长度小于1
所以这个特征值均不等于0
所以I-A就可逆
那么我们的这个技巧
是把I-A的逆展开看一下
那么实际上大家可以看到
I-A的逆实际上也是一个正矩阵
I-A的逆是一个正矩阵
如果I-A的逆是正矩阵的话
那么我们看到I-A的逆乘上d
d是大于等于0
所以我们这样推出了产量向量P
就是大于等于0的
所以我们那个例子中呢
我们看到这个矩阵
它是一个有效率矩阵
从而能够得到确切的产量向量
-1.1 实对称矩阵A正定的充要条件
-1.2 典型例题
--1.2 典型例题
-1.3 半正定矩阵及其判别条件
-1.4 二次型
--1.4 二次型
-1.5* 有心二次曲线(central conic)
-1.6* 三维空间中的二次曲面-6类基本的二次曲面
-1.7 二次型的分类
-1.8 矩阵的合同
-1.9* 惯性定理的证明
-1.10 惯性定理的应用 —— 实对称矩阵的特征值与主元符号
--1.10 惯性定理的应用 —— 实对称矩阵的特征值与主元符号
-1.11* 正(负)定矩阵在函数极值问题中的应用
-第一讲:正定矩阵--课后习题
-2.1 引言
--2.1 引言
-2.2 相似矩阵的性质
-2.3 Jordan标准形
-2.4 定理的证明
-2.5 Jordan标准形的应用
-第二讲:相似矩阵--课后习题
-3.1 引言
--3.1 引言
-3.2 奇异值分解(Singular Value Decomposition)
--3.2 奇异值分解(Singular Value Decomposition)
-3.3 例题
--3.3 例题
-3.4 奇异值分解的应用
-第三讲:奇异值分解--课后习题
-4.1 线性变换的定义和性质
-4.2 线性变换的运算
-4.3 线性变换的矩阵表示
-4.4 线性变换与矩阵之间的关系
-第四讲:线性变换 I--课后习题
-5.1 恒同变换与基变换
-5.2 图像压缩——基变换的应用
-5.3 线性变换在不同基下的矩阵
-5.4 矩阵分解与基变换
-5.5 线性变换的核与像
-5.6 不变子空间
-5.7* 幂零变换
-5.8* Jordan标准形
-第五讲:线性变换 II--课后习题
-6.1 伪逆
--6.1 伪逆
-6.2 Moore – Penrose 伪逆
-6.3 最小二乘法
-第六讲:伪逆--课后习题
-7.1 简介
--7.1 简介
-7.2 弹簧模型
--7.2 弹簧模型
-7.3 变量的线性关系
-7.4 刚度矩阵
--7.4 刚度矩阵
-7.5 从离散到连续
-第七讲:工程中的矩阵--课后习题
-8.1 简介
--8.1 简介
-8.2 图和矩阵
--8.2 图和矩阵
-8.3 网络和加权Laplacian矩阵
-8.4 关联矩阵的四个基本子空间
-8.5 注记
--8.5 注记
-第八讲:图与网络--课后习题
-9.1 问题引入
--9.1 问题引入
-9.2 Markov矩阵
-9.3 正Markov矩阵
-9.4 正矩阵
-第九讲:Markov矩阵和正矩阵--课后习题
-10.1 引言
--10.1 引言
-10.2 内积空间
-10.3 傅里叶级数
-10.4 投影
--10.4 投影
-10.5 关于Fourier变换的注记
-第十讲:Fourier级数--课后习题
-11.1 引言
--11.1 引言
-11.2 平移
--11.2 平移
-11.3 伸缩
--11.3 伸缩
-11.4 旋转
--11.4 旋转
-11.5 投影和反射
-第十一讲:计算机图像--课后习题
-12.1 引言
--12.1 引言
-12.2 复矩阵
--12.2 复矩阵
-12.3 复正规阵
-12.4 离散Fourier变换
-12.5 快速Fourier变换
-第十二讲:复数与复矩阵--课后习题
-结课寄语
--结课寄语