当前课程知识点:数学建模 >  第4章 AHP方法与系统决策 >  4.3 权重向量的计算 >  4.3 权重向量的计算

返回《数学建模》慕课在线视频课程列表

4.3 权重向量的计算在线视频

下一节:4.4 量纲分析

返回《数学建模》慕课在线视频列表

4.3 权重向量的计算课程教案、知识点、字幕

同样我们上节已经给出了我们说的 一个正负反矩阵

对吧 也给出了一个一次性矩阵

并且我们也说好了

如果我们怎么来构造一个特别好的一个正负反矩阵

就希望它能够可以跟一次性矩阵

最好是相同或说最好的差距越来越小越好

因为差距越来越小的话

或者接近一次性矩阵以后的话

那我们说的特征根

或者最大特征根对应的特征向量的就可以看到

权重向量 有了权重向量以后的话

我们就可以来做一些

权重计算或者权重排序的这方面的事情

于是呢

我们就可以把问题了

刚才提到的决策问题的就会给它数值化

数量化出来

所以呢

我们接下来开始考虑我们的权重计算

那么

权重计算的常规的计算

我们的就是我们幂法计算

那就是典型的根据我们的线性代数

那么 特征根特征向量

然后又开始进行迭代收敛

能计算出它特征根特征向量出来

然后有了特征根以后我们得考虑特征根是不是

满足我们的要求是不是我们的一致性系数

比我们的给定的一个精度要求要来的小

那我们就可以往下继续了

那我们一般来说我们用的计算的方式

或者说一种简单的方法就是我们方根法

就是我们方根法 方根法比较简单

操作起来比较方便

那我们这地方啰嗦几下说几句

那么首先呢

就计算我们这个判断矩阵或者成对比较矩阵的每一行

n个元素每一行这些元素的几何平均值

所得几何平均值的话

不就是计算它的成绩

然后开方嘛 开n次方

然后呢

把这些我们说得到的

这些mi值或者wi值

我们这边的规划 给它规划

为什么规划呢 因为权重需要规划

所以来得到了我们的wi

这个东西最后呢

我们说

利用我们的特征向量

我们反过来求它的特征值

反过来求它的特征值

也就是我们后面这个表达式

λ等于∑求和那么分母呢

是nwi wi是一个数值所以n乘wi是一个数值啦

好的分子需要解释一下是A乘上w括号这个i

大家知道A是一个n乘n的一个矩阵

w是个权重向量是n乘1

所以呢

乘出来本来就变成我们说n行一列的这么一个矩阵

所以呢括号那个i呢

表示什么意思呢

就表示

在这n个向量里面

第i个分量的值来表示它第i个分量的值了

所以这么一来的话

从我们可以看得出来

分子是一个数值

分母是个数值

那么除起来再求和就是个数值

得到λ的值了最后来判断λ

到底是怎么回事情好的

那么接下来我们就以刚才的例子对吧

我们要出去旅游

考虑了五个因素

对吧 五个准则

那么我们得到一个5乘5的

一个成对比较矩阵或者正负反矩阵

那么通过它呢我们可以计算出

它的特征根

等于5.019它的特征向量呢

分别都是0.48 0.20 0.05以及

0.1以及0.11

得到一次性指标呢

CI值 就是我们n减1分之λ减去n

得到了 我们是0.00475

那么通过这里面

我们可以查表可以得到

我们可以查表可以得到一个

rin等于5的ri等于1.12

于是呢我们最后得到CR的值了

可能CR的值明显的小于0.1

所以呢

我们可以得到

我们刚才数得到那个成对比较的那个

矩阵 判断矩阵获得正负反矩阵

我们说它满足近似的一致性

既然是近似的一致性

那么很自然的话

我们所得到的特征向量呢

就可以把它近似的看作为它的权重向量

好的 这是我们说回到我们刚才来说上一层是目标

是我们的旅游景点下一层呢是五个因素

五个因素所得到一个权重的分配

那么根据我们刚才的说法

那么我们对于下面还有三个

旅游的地点或者三个理由的方案

关于它的每一个因素

我们又可以构成对吧

一个上下级的关系又可以构成一个目标

跟因素之间关系

所以接下来的话我们就应该可以得到

五个3乘3的一个矩阵

例如我们第一个矩阵呢

就是我们考虑的第一个指标对吧

关于我们的三个景点三个景点

它所得的一个那么一样的可以计算出来

它的最大特征根可以得到它的特征向量

这一来的话

我们可以把五个矩阵

结果都可以跟它表述出来

好的分别呢

我们都可以把它的最大特征根

特征向量都可以表达出来

那么一样道理

我们可以来验证它最大特征根

是不是满足我们的一致性系数

我们说满足一致性系数

那么它就相应来说就是我们说的一个特征向量了

那么接下来我们就开始考虑另外一个问题

我们相当是两两都说清楚了

我们说最高层跟因素层说清楚了

那么中间的因素层逐一的关于方案层也说清楚了

那么最后我们就开始考虑考虑什么呢

考虑我们的真正的方案层到目标层的事情了

也就换句话说最下面最底层到最高层

那么这种

应该怎么来传递

应该怎么来求续

应该怎么来求它的特征向量

这是我们呢今天要说的最后一个话题

也就是我们说的总排序

跟它的一致性

好的总排序

想法非常简单

就是利用一种传递性

就是利用一种传递性

也就是说

从我们的方案这一层到因素这一层

我们得到一个权重的一种排序

然后呢

由因素造成的到了目标这一层

又有个权重的排序

依次的就会出现

我们说的x可以到y

y到z所有把它合并起来

就是x到z的一种权重的分配的事情

例如在这里面

我们假设对吧因素这一层到z这一层呢

我们的权重排序是a1a2一直到an

那么相应来说的话

x关于每个因素

关于每个准则

它又有个排序

我们有b对吧

bij来表示

那么在这里面我们可以写成正比和矩阵

例如

我们说因素这一层关于目标的权重呢

我们把它写成矩阵的最右边就是我们

我们的表格里面的最右边的一列

a1 a2 a3 a4 a5

然后呢

我们关于五个因素对于方案这一层每一个呢

我们都有个什么都有个权重

那么每一个权重呢我们开始写在左边

这个矩阵里面写着左边这个矩阵里面

例如我们说第一个因素关于我们三个方案

就写在我们左边这个矩阵第一列

那么第二个因素呢

就写在第二列

那么第三个因素第三列

第四个因素第四列

第五个因素写在第五列

所以呢

大家可以设想左边这个矩阵呢就构成了一个什么东西

三行五列的一个矩阵

那么在乘上a呢

a是一个五行一列的

所以把它合在一块呢

就变成我们说三行一列的一个矩阵

三行一列的一个矩阵

那么得到的就是三个值了

大家可以设想一下

如果一切都正常的话

正确的话

那么这三个值呢

就应该分别都是

第一个方案关于总目标的一种权重分配

第二个方案关于总目标的一种权重分配

第三个方案关于总目标的一种权重分配

这种的如果一切正常起来应该就是这样的

那么是不是这样的情况的那么紧

接下来我们还要考虑一个什么东西呢

考虑一个检验的过程

也就是我们要计算一个

我们说总的ci值

总的CI值怎么计算呢

我们说要计算它是不是满足我们的一致性的话

不是要计算CI值吗

一次性系数吗

那一次性系数有两个值

一个是CI值一个是RI值

RI值好说

RI值呢就是我们可以查表所得到对吧

查表所得到的那么关于每个权重

ai

我们把它权重求和就可以的了

所以RI的值很好说

那么CI怎么计算呢

CI值的也很简单

CI值呢就是说我们每一个因素关于这三个地点

三个方案都有个CI值

那么实际上的话也就说a1

乘上一个第一个因素对它的CI值

a2 呢实际上第二个因素对它的ci值

那么a1a2呢

实际上就是我们说的是关于第一个因素

它在我总目标里面

它的一种权重的占比对吧

a1 a2 a3 a4 a5

其它值是五个因素它的权重占比分别对应

它的ci1ci2

一直到cin就是五个因素

对应的CI值所以这么一来的话

就构成我们的总的CI值跟总的RI值了

那么把它们俩呢在相除一下就可以得到

我们的总的一致性系数

如果这个总的一致性系数能不能满足

我们的0.1的这么一个精度要求的话

所以这样一来的话

我们刚才所得到的三行一列的那么一个向量

就是我们将来所要考虑的一个权重向量

也就是我们经常说的

我们的0.293

0.311

还有个0.446

这是我们关于这三个地点

最后对于目标来说

它的一种权重分配

所以呢

从这个地方我们来看

权重大小表示它目标的重要性程度

那我们可以看出来第三个目标对它的重要性程度

是最高的

所以应该它可以排在第一位

也就换句话说

去承德对于我们这一部分决策者的心理来说

它是首选的第一位

好的

接下来

关于方根法的一些数学根据

我想我这边就不再去多说它了

如果大家有兴趣的话

我们可以回过来

我可以把它做个阅读资料

大家仔细来看一看

一方面它既体现了我们第二章里面说的

数据处理方法的一种建模的思想跟方法

另外一方面呢

又是一个比较好的艺术数学训练

数学训练

这是我们说的方根法的根据接下来

我们把层次分析方法我们做一点点简单的推广

首先

第一个推广就是我们说的群组推广

所谓群主推广什么意思呢

我们刚才所得到那个成对比较矩阵

我们说是一个专家所给出来的

一个专家所给出来的那么很显然

我们在目前的科学决策过程当中

专家就不再是一个专家了

而是什么一个专家组了或者

而是一个全决策的事情

全决策的事情

我们假设有s个专家

每一个专家都可以给出个成对比较矩阵出来了

怎么把这S个专家对吧智慧都集中在一块集中在一块

那么这是我们将来所必须考虑的事情

当然一种最简单的一种办法就可以

每个专家都跟在加个全对吧

然后呢

变成我们说的aij括号的

幂函数幂次方

然后再把它乘积构成出来的

这是我们说的最简单的一种处理办法

这是我们的群组

群组决策里面必须要面对的一个对象

那么第二种推广呢就是我们说的

我们在群组决策过程当中

有时候在那个比较矩阵里面

有时候在那个比较矩阵里面的话

我们可以看出来确实很难给出

谁比谁重要

或者说已经超出了专家的一种资质范围了

所以就出现我们的缺失数据的那么一个成对比较矩阵

当然大家会说了

如果缺失数据太多

那么这么一个的专家是太不牢靠了

或者说这个东西就很有问题了

但是我们可以设想

假设只是缺失一少部分这个数据

那么一少部分的成对比较矩阵

那么这个能不能导出我们的权重分别出来

这是我们的缺失数据方面的事情

第三种推广呢就是我们说的

那么我们在给出成对比较矩阵的过程当中的话

我们说有些数据给出的不是那么精确

而是出现一定的

变化范围

例如我们通常说的重要吗

重要确实是非常非常重要

就是精确的描述

但是呢重要吗差不多对吧

或者说比较重要或者差不多重要

也就换句话说

这个时候客观的数据呢

它可能出现一些模糊的数据

出现一些模糊数据

也就是说

在模糊数据或者从模糊的数据的判断矩阵里面

怎么来得出我们的层次分析

怎么能得到它的相对权重

怎么对它进行排序

那么这是我们后面可能在科学决策里面

需要面对的一些特殊的问题

那么这些大家如果有兴趣了

我们可以坐下来

可以把它分别做一些研究方向来进行探讨

好的

关于层数分析我们要说的一些话题

今天就告一段落

谢谢大家 再见

数学建模课程列表:

第1章 数学建模

-1.1 案例分析

--1.1.1 操场设计

--1.1.2 铅球投掷模型I

--1.1.3 铅球投掷模型II

-1.2 数学建模绪论

--1.2 数学建模绪论

-1.3 数学建模活动

--1.3 数学建模活动

-第1章 习题

--第1章 习题

第2章 数据处理方法

-2.1 最小二乘方法

--2.1.1 最小二乘方法原理

--2.1.2 最小二乘方法参数估计

-2.2 拟合函数的扩展

--2.2 拟合函数的扩展

-2.3 最小二乘方法应用

--2.3 最小二乘方法应用

-2.4 线性插值

--2.4 线性插值

-2.5 样条插值

--2.5 样条插值

-第2章 习题

--第2章 习题

第3章 平衡原理与机理模型

-3.1 Malthus模型

--3.1 Malthus模型

-3.2 Logistic模型

--3.2 Logistic模型

-3.3 捕食者模型

--3.3 捕食者模型

-3.4 差分方程模型

--3.4.1 差分方程模型I

--3.4.2 差分方程模型II

-3.5 随机动态模型

--3.5.1 概率准备知识

--3.5.2 纯生随机模型

--3.5.3 简单生死随机模型

-第3章 习题

--第3章 习题

第4章 AHP方法与系统决策

-4.1 成对比较矩阵

--4.1 成对比较矩阵

-4.2 一致性指标

--4.2 一致性指标

-4.3 权重向量的计算

--4.3 权重向量的计算

-4.4 量纲分析

--4.4 量纲分析

-4.5 轮廓模型

--4.5 轮廓模型

-第4章 习题

--第4章 习题

第5章 经典模型分析

-5.1 名额分配

--5.1 名额分配

-5.2 Hamilton方法

--5.2 Hamilton方法

-5.3 Q方法

--5.3 Q方法

-第5章 习题

--第5章 习题

第6章 线性规划

-6.1 两变量的线性规划

--6.1 两变量的线性规划

-6.2 单纯形方法

--6.2 单纯形方法

-6.3 整数规划

--6.3 整数规划

-第6章 习题

--第6章 习题

第7章 模糊信息处理

-7.1 模糊集合

--7.1.1 模糊集合

--7.1.2 模糊集合运算

-7.2 模糊关系

--7.2 模糊关系

-7.3 模糊综合决策

--7.3 模糊综合决策

-7.4 模糊聚类分析

--7.4 模糊聚类分析

-第7章 习题

--第7章 习题

4.3 权重向量的计算笔记与讨论

也许你还感兴趣的课程:

© 柠檬大学-慕课导航 课程版权归原始院校所有,
本网站仅通过互联网进行慕课课程索引,不提供在线课程学习和视频,请同学们点击报名到课程提供网站进行学习。