当前课程知识点:Introduction to Artificial Intelligence > Chapter 4 Classification > 4.3 Support Vector Machine > Video 4.3
返回《Introduction to Artificial Intelligence》慕课在线视频课程列表
返回《Introduction to Artificial Intelligence》慕课在线视频列表
大家好
在上一节课
我们介绍了朴素贝叶斯分类
这节课
我们学习另一种
a分类算法
支持向量机
支持向量机是一种由分类超平面
正式设计的
判别式分类器
它表示实例的形式
为空间中映射的点
这些点被映射后
不同类别的点之间被分隔
并且它们的距离尽可能宽
除此之外
SVM
还可以执行
非线性分类
让我们看一下支持向量机的工作原理
支持向量机的主要目标是
以最佳的方式隔离给定的数据
完成隔离后
最近的点之间的距离
称为边距
该方法是在给定数据集中
选择在支持向量之间
具有最大可能边距的
超平面
现在
让我们看一个例子
本示例的目标是使用奔跑与踢球的比率
将板球运动员
分类为击球手
或投球手
奔跑次数较多的球员将被视为击球手
而门线活动较多的球员
将被视为投球手
如果您收集一组板球运动员的数据
在其姓名旁边的各栏中
有奔跑和数据
门线活动数据
则可以创建一个二维绘图
显示出击球手和投球手
之间的明显区别
这里我们提供了一个数据集
这个数据集明显区分了
投球手和击球手
以便支持我们来了解SVM
在使用高级数学方法
进行分离之前
让我们看一个未知值
即将未知数据
引入数据集
而无需预先指定分类
当我们绘制数据时
我们可以看到击球手和投球手之间的清晰区分
我们想要为一个新的运动员分类
看看他是投球手还是击球手
为了对新的未知运动员进行分类需要决策边界
需要决策边界
以对新的未知变量进行分类
下一步是绘制
决策边界
或用一条线分隔两个类
以帮助对新数据点进行分类
决策边界是两个类别之间的分隔
我们可以在此处画出多条线
作为决策边界
我们实际上可以画出几个边界
如上所示
然后,我们需要找到
最合适的线
这条线将这两组
明显地分开
正确的线将帮助我们
对新数据点进行分类
我们可以通过从等距支持向量计算最大距离
来找这条最佳线
在这种情况下,支持向量
仅表示两个点
每个类别中有一个点
并且这两个点是最接近的
但它们之间或边缘的距离
最大
您可能会认为
单词向量是指数据点
虽然在二维或三维空间中
可能是这种情况
但是一旦进入数据集中
具有更高特征的
更高维度
则需要将它们视为向量
它们是支持向量
的原因是
最靠近在一起的两个向量
使支持算法的两组之间的距离
最大化
顶部有几个点
非常接近
并且在图的底部也是如此
下面显示的是
我们需要考虑的点
其余要点距离太远
投球手的点在右侧
而击球手的点在左侧
从数学上讲
我们可以计算所有这些点之间的距离
并将该距离
最小化
选择支持向量后
绘制一条分界线
然后测量
从每个支持向量
到该线的距离
最佳线将始终在支持向量之间具有最大的边距或距离
例如
如果我们将这条绿线视为决策边界
则拥有新数据点
的运动员
就是投球手
但是,由于距离
似乎没有达到最大
因此可以提出一条线作为更好的选择
使用其他支持向量
在它们之间绘制决策边界
然后计算边距
现在注意
未知数据点将被视为击球手
假设红线具有最大边距
让我们将这条线
视为分隔线
并分类运动员变量
红线完美地划分了数据因为它在支持向量之间
具有最大的距离
在这一点上
我们可以对这个分类
充满信心
新的数据点是击球手
从技术上讲
该分界线称为超平面
在二维空间中
我们通常将分隔线
称为“线”
但是在三维及更高维度中
它们被视为“平面”或“超平面”
从技术上讲
它们都是超平面
该问题集是二维的,因为分类仅在两个类之间
它称为线性SVM
如果我们把问题变得更加复杂怎么办
此处显示的数据集在两个类别之间
没有明确的线性分隔
在这里,我们可以看到一个二维数据
其中红色数据在中间
外面包围着的是蓝色数据
在这种情况下
我们将把这两个类分开
由于不能
使用一条线
将其分为两类
在机器学习中
我们可以说
它们不是线性可分离的
我们如何使SVM
在这样的数据集上工作
我们需要通过
对数据集使用内核函数
将其转换为
更高的维度
较高的维度使您
可以用平面清楚地
将两个组分开
在这里,您可以在绿点和红点之间绘制一些平面
最终目标是使边距最大化
将数据分为三个维度后
您可以应用
SVM并使用
二维平面将两组分开
SVM内核基本上
向低维空间添加了更多维度
从而更易于
分离数据
通过使用内核技巧
增加更多维度
可以将不可分割的问题
转换为
可分离的问题
支持向量机实际上是
由内核实现的
内核技巧
有助于使分类器更准确
让我们看一下支持向量机中的不同内核
线性核
线性核可用作任意两个
给定观测值之间的正态点积
两个向量之间的乘积
是每对输入值的乘积之和
多项式内核
它是线性核的
一种进阶的形式
它可以区分弯曲的或非线性的输入空间
接下来是
多项式内核方程
径向基函数核
径向基函数核通常用于SVM分类中
它可以映射
无限维
的空间
这一节我们就讲到这
感谢收看,欢迎进入下一节的学习
-1.1 What is artificial intelligence
--Exercise 1.1
-1.2 The History of artificial intelligence
--Exercise 1.2
-1.3 Applications of Artificial Intelligence
--Exercise 1.3
-1.4 Machine Learning and Deep Learning
--Exercise 1.4
-2.1 What is Machine Learning
-2.2 Supervised Learning
-2.3 Unsupervised Learning
-2.4 Construction of Development Environment
-3.1 What is Regression
--Exercise 3.1
-3.2 Linear Regression
--Exercise 3.2
-3.3 Logistic Regression
--Exercise 3.3
-3.4 Practical Case
-4.1 What is Classification
-4.2 Naive Bayes
-4.3 Support Vector Machine
-4.4 Practical Case
-5.1 Introduction to Deep Learning
--Exercise 5.1
-5.2 What is Neural Network
--Exercise 5.2
-5.3 Neural Network Basics
--Exercise 5.3
-5.4 Practical Case
-6.1 What is Convolutional Neural Network
-6.2 Convolution Layer
-6.3 Pooling Layer
-6.4 Classical Convolutional Neural Network
-7.1 What is Computer Vision
--Exercise 7.1
-7.2 Image Classification
--Exercise 7.2
-7.3 Introduction to TensorFlow
--Exercise 7.3
-7.4 Practical Case
-8.1 What is Natural Language Processing
-8.2 Basics of NLP
-8.3 Recurrent Neural Network
-8.4 Practical Case