当前课程知识点:大数据机器学习 >  第五章 聚类 >  3.1原型聚类 k均值算法 >  3.1原型聚类 k均值算法

返回《大数据机器学习》慕课在线视频课程列表

3.1原型聚类 k均值算法在线视频

3.1原型聚类 k均值算法

下一节:3.2 原型聚类 学习向量算法

返回《大数据机器学习》慕课在线视频列表

3.1原型聚类 k均值算法课程教案、知识点、字幕

有了距离的度量方法以后

我们介绍以下一些聚类方法

K均值算法 学习向量算法 高斯混合聚类

密度聚类和层次聚类

其中K均值算法 学习向量算法和高斯混合聚类

都属于原型聚类也称为基于原型的聚类

此类算法的特点是

假设聚类的结果能通过一组原型刻画

算法先对原型进行初始化

然后对原型进行迭代更新求解

我们将介绍其中的四种方法

而高斯混合聚类方法

我们将在期望极大值算法

也就是EM算法中详细介绍

原型聚类也称为基于原型的聚类

所谓原型

是具有确定性的距离度量和模型方法

此类算法的特点是假设聚类的结果

能通过一组原型刻画

算法先对原型进行初始化

然后对原型进行迭代更新求解

先介绍K均值算法

给定样本集D等于x1x2一直到xm

聚类得到的簇划分c等于c1c2一直到ck

最小化平方误差公示如下

其中 μ为簇i的均值向量

E值越小则簇内样本相似度越高

可是最小化平方误差却是一个NP难问题

因为要找到它的最优解

需要考察样本集D所有可能的簇划分

所以这里我们采用贪心策略的迭代优化方法去求解

具体过程如下

K均值算法的输入是

样本集D等于x1到xm和聚类的簇数K

具体步骤

首先

从D中随机的选择K个样本作为初始的均值向量μi

第二步重复以下的操作

令Ci也就是每个簇的初始为空集

对每一个样本进行计算

计算样本xj与各均值向量μi的距离

根据距离最近的均值向量

确定xj的簇标记λj

将样本xj划入相应的簇Cλj

直到所有的样例执行完毕

然后针对每个簇计算

计算新的均值向量μi循环结束

直到当前均值向量均未更新

最后输出簇划分c1到ck

这就是完整的K均值方法

下面我们看一个实际的K均值算法的迭代过程

从一开始任意设定三个样本作为初始均值向量

然后逐渐优化到第四轮完成簇的最后划分

大数据机器学习课程列表:

第一章 概述

-1.机器学习定义和典型应用

--1.机器学习定义和典型应用

-2.机器学习和人工智能的关系

--2.机器学习和人工智能的关系

-3.深度学习方法和其它人工智能方法的共性和差异

--3.深度学习方法和其它人工智能方法的共性和差异

-4.机器学习和数据挖掘的关系

--4.机器学习和数据挖掘的关系

-5.机器学习和统计学习的关系

--5.机器学习和统计学习的关系

-6.机器学习的发展历程

--6.机器学习的发展历程

-7.大数据机器学习的主要特点

--7.大数据机器学习的主要特点

-第一章 概述--7.大数据机器学习的主要特点

-1.相关拓展资料

第二章 机器学习基本概念

-1机器学习的基本术语

--1机器学习的基本术语

-2.监督学习

--2.监督学习

-3.假设空间

--3.假设空间

-4.学习方法三要素

--4.学习方法三要素

-第二章 机器学习基本概念--4.学习方法三要素

-5.奥卡姆剃刀定理

--5.奥卡姆剃刀定理

-6.没有免费的午餐定理

--6.没有免费的午餐定理v

-7.训练误差和测试误差

--7.训练误差和测试误差

-8.过拟合与模型选择

--8.过拟合与模型选择

-第二章 机器学习基本概念--8.过拟合与模型选择

-9.泛化能力

--9.泛化能力

-10.生成模型和判别模型

--10.生成模型和判别模型

-统计学习与监督学习拓展资料

第三章 模型性能评估

-1.留出法

--1.留出法

-2.交叉验证法

--2.交叉验证法

-3.自助法

--3.自助法

-4.性能度量

--4.性能度量

-5.PR曲线

--5.PR曲线

-6.ROC和AUC曲线

--6.ROC和AUC曲线

-第三章 模型性能评估--6.ROC和AUC曲线

-7.代价敏感错误率

--7.代价敏感错误率

-8.假设检验

--8.假设检验

-9.T检验

--9.T检验

-10.偏差和方差

--10.偏差和方差

第四章 感知机

-1.感知机模型

--1.感知机模型

-第四章 感知机--1.感知机模型

-2.感知机学习策略

--2.感知机学习策略

-3.感知机学习算法

--3.感知机学习算法

-第四章 感知机--3.感知机学习算法

-感知机拓展资料

第五章 聚类

-1.原型聚类描述

--1.原型聚类描述

-第五章 聚类--1.原型聚类描述

-2.性能度量

--2.性能度量

-第五章 聚类--2.性能度量

-3.1原型聚类 k均值算法

--3.1原型聚类 k均值算法

-3.2 原型聚类 学习向量算法

--3.2 原型聚类 学习向量算法

-3.3 原型聚类 密度聚类

--3.3 原型聚类 密度聚类

-第五章 聚类--3.3 原型聚类 密度聚类

-3.4原型聚类 层次聚类

--3.4原型聚类 层次聚类

-聚类拓展资料

第六章 贝叶斯分类器及图模型

-1.综述

--1.综述

-2.概率图模型

--2.概率图模型

-第六章 贝叶斯分类器及图模型--2.概率图模型

-3.贝叶斯网络

--3.贝叶斯网络

-第六章 贝叶斯分类器及图模型--3.贝叶斯网络

-4.朴素贝叶斯分类器

--4.朴素贝叶斯分类器

-第六章 贝叶斯分类器及图模型--4.朴素贝叶斯分类器

-5.半朴素贝叶斯分类器

--5.半朴素贝叶斯分类器v

-第六章 贝叶斯分类器及图模型--5.半朴素贝叶斯分类器

-6.贝叶斯网络结构学习推断

--6.贝叶斯网络结构学习推断

-7.吉布斯采样

--7.吉布斯采样

-第六章 贝叶斯分类器及图模型--7.吉布斯采样

-贝叶斯相关拓展

第七章 决策树和随机森林

-开头

--开头

-1.决策树模型与学习基本概念

--1.决策树模型与学习基本概念

-2.信息量和熵

--2.信息量和熵

-第七章 决策树和随机森林--2.信息量和熵

-3.决策树的生成

--3.决策树的生成

-4.决策树的减枝

--4.决策树的减枝

-5.CART算法

--5.CART算法

-6.随机森林

--6.随机森林

-决策树相关拓展

第八章 逻辑斯谛回归与最大熵模型

-简介

--简介

-1.逻辑斯谛回归模型

--1.逻辑斯谛回归模型

-第八章 逻辑斯谛回归与最大熵模型--1.逻辑斯谛回归模型

-2.最大熵模型

--2.最大熵模型

-3.模型学习的最优化方法

--3.模型学习的最优化方法

-第八章 逻辑斯谛回归与最大熵模型--3.模型学习的最优化方法

-logistic回归相关拓展

第九章 SVM

-1.开头

--1.开头

-2.SVM简介

--2.SVM简介

-3.线性可分支持向量机

--3.线性可分支持向量机

-第九章 SVM--3.线性可分支持向量机

-4. 凸优化问题的基本概念

--4. 凸优化问题的基本概念

-第九章 SVM--4. 凸优化问题的基本概念

-5.支持向量的确切定义

--5.支持向量的确切定义

-6.线性支持向量机

--6.线性支持向量机

-第九章 SVM--6.线性支持向量机

-svm相关拓展资料

--svm相关拓展资料

第十章 核方法与非线性SVM

-开头

--开头

-第十章 核方法与非线性SVM--开头

-1.泛函基础知识

--1.泛函基础知识

-第十章 核方法与非线性SVM--1.泛函基础知识

-2. 核函数和非线性支持向量机

--2. 核函数和非线性支持向量机

-第十章 核方法与非线性SVM--2. 核函数和非线性支持向量机

-3. 序列最小最优化算法

--3. 序列最小最优化算法

-第十章 核方法与非线性SVM--3. 序列最小最优化算法

第十一章 降维与度量学习

-开头

--开头

-1. k近邻学习

--1. k近邻学习

-第十一章 降维与度量学习--1. k近邻学习

-2. 降维嵌入

--2.降维嵌入

-第十一章 降维与度量学习--2. 降维嵌入

-3. 主成分分析

--3.主要成分分析

-第十一章 降维与度量学习--3. 主成分分析

-4. 核化线性降维

--4.核化线性降维

-5. 流型学习和度量学习

--5.流型学习和度量学习

第十二章 提升方法

-1. 提升方法Adaboost算法

--1. 提升方法adaboost算法

-第十二章 提升方法--1. 提升方法Adaboost算法

-2. Adaboost算法的训练误差分析

--2. Adaboost算法的训练误差分析

-3. Adaboost算法的解释

--3. Adaboost算法的解释

-4. Adaboost的实现

--4. Adaboost的实现

-第十二章 提升方法--4. Adaboost的实现

-adaboost拓展资料

--adaboost拓展资料

第十三章 EM算法及混合高斯模型

-开头

--开头

-1. 问题提出

--1. 问题提出

-2. EM算法的引入

--2. EM算法的引入

-3. EM算法的收敛性

--3. EM算法的收敛性

-4. EM算法在高斯混合模型学习中的应用

--4. EM算法在高斯混合模型学习中的应用

-5. EM算法的推广

--5. EM算法的推广

-第十三章 EM算法及混合高斯模型--3. EM算法的收敛性

-EM算法拓展资料

第十四章 计算学习理论

-开头

--开头

-1. 计算学习理论的基础知识

--1. 计算学习理论的基础知识

-第十四章 计算学习理论--1. 计算学习理论的基础知识

-2. 概率近似正确学习理论

--2. 概率近似正确学习理论

-3. 有限假设空间

--3.有限假设空间

-4. VC维

--4. VC维

-第十四章 计算学习理论--4. VC维

-5. 学习稳定性

--5. 学习稳定性

-计算学习理论拓展资料

第十五章 隐马尔可夫模型

-开头

--开头

-1. 隐马尔科夫模型的基本概念

--1. 隐马尔科夫模型的基本概念

-第十五章 隐马尔可夫模型--1. 隐马尔科夫模型的基本概念

-2. 概率计算算法

--2. 概率计算算法

-3. 学习算法

--3.学习算法

-第十五章 隐马尔可夫模型--3. 学习算法

-4预测算法

--4. 预测算法

-第十五章 隐马尔可夫模型--4预测算法

-隐马尔可夫拓展资料

第十六章 条件随机场

-开头

--开头

-1.概率无向图模型

--1.概率无向图模型

-第十六章 条件随机场--1.概率无向图模型

-2.条件随机场的定义与形式

--2.条件随机场的定义与形式

-第十六章 条件随机场--2.条件随机场的定义与形式

-3.条件随机场的计算问题

--3.条件随机场的计算问题

-4.条件随机场的学习算法

--4.条件随机场的学习算法

-5.条件随机场的预测算法

--5.条件随机场的预测算法

-第十六章 条件随机场--5.条件随机场的预测算法

第十七章 概率图模型的学习与推断

-开头

--开头

-1.精确推断法:变量消去法和信念传播法

--1.精确推断法:变量消去法和信念传播法

-第十七章 概率图模型的学习与推断--1.精确推断法:变量消去法和信念传播法

-2.近似推断法:MCMC和变分推断

--2.近似推断法:MCMC和变分推断

-第十七章 概率图模型的学习与推断--2.近似推断法:MCMC和变分推断

第十八章 神经网络和深度学习

-1.神经网络的发展历程

--1.神经网络的发展历程

-2.神经网络的基本概念以及常见的神经网络(一)

--2.神经网络的基本概念以及常见的神经网络(一)

-第十八章 神经网络和深度学习--2.神经网络的基本概念以及常见的神经网络(一)

-3.神经网络的基本概念以及常见的神经网络(二)

--3.神经网络的基本概念以及常见的神经网络(二)

-4.玻尔兹曼机

--4.玻尔兹曼机

-5.深度学习

--5.深度学习

-第十八章 神经网络和深度学习--5.深度学习

-神经网络与深度学习拓展资料

第十九章 深度学习正则化方法

-1. 深度学习简介和架构设计

--1. 深度学习简介和架构设计

-2. 计算图形式的反向传播算法

--2. 计算图形式的反向传播算法

-3.深度学习的正则化方法(一)

--3.深度学习的正则化方法(一)

-4.深度学习的正则化方法(二)

--4.深度学习的正则化方法(二)

-深度学习正则化方法拓展资料

第二十章 深度学习优化方法

-1.深度学习的优化问题

--1.深度学习的优化问题

-第二十章 深度学习优化方法--1.深度学习的优化问题

-2.神经网络优化的挑战

--2. 神经网络优化的挑战

-3.神经网络的优化算法

--3.神经网络的优化算法

-第二十章 深度学习优化方法--3.神经网络的优化算法

-4.相关策略

--4.相关策略

-第二十章 深度学习优化方法--4.相关策略

-深度学习优化算法拓展资料

3.1原型聚类 k均值算法笔记与讨论

收藏文章
表情删除后不可恢复,是否删除
取消
确定
图片正在上传,请稍后...
  • 评分:
评论内容为空!
还没有评论,快来抢沙发吧!

也许你还感兴趣的课程:

© 柠檬大学-慕课导航 课程版权归原始院校所有,
本网站仅通过互联网进行慕课课程索引,不提供在线课程学习和视频,请同学们点击报名到课程提供网站进行学习。
欢迎学习『3.1原型聚类 k均值算法慕课视频播放-大数据机器学习-MOOC慕课视频教程-柠檬大学』