一文理解神经网络的本质

举报
北山啦 发表于 2021/06/03 01:10:49 2021/06/03
【摘要】 理解神经网络的本质 一、前言 最近深度学习是一个比较热门的词,各行各业都声称自己使用了深度学习技术。现在“深度学习”这个词,就像印在球鞋上的“Fashion”、“Sport”。那深度学习到底是什么呢? 深度学习是机器学习的一个分支,当我们使用了“深度神经网络”算法进行机器学习时,我们就可以说自己在搞深度学习。而这个“神经网络”算法就是我们今天的主题。 关于机器学...

理解神经网络的本质

一、前言

最近深度学习是一个比较热门的词,各行各业都声称自己使用了深度学习技术。现在“深度学习”这个词,就像印在球鞋上的“Fashion”、“Sport”。那深度学习到底是什么呢?

深度学习是机器学习的一个分支,当我们使用了“深度神经网络”算法进行机器学习时,我们就可以说自己在搞深度学习。而这个“神经网络”算法就是我们今天的主题。

关于机器学习的内容,各位读者可以参考Python快速构建神经网络

在本文我依然是从线性回归开始说起。在上一篇文章,只是简单说了一下神经网络,却没有详细说神经网络的本质。在本文,作者将为大家详细说说,神经网络的全貌。

二、线性回归

2.1、直线方程

如果说线性回归很多读者没有听过的话,那么我相信你应该听过直线方程。在中学的学习中,我们通常会用下面的方程表示一根直线:
y = k x + b y = kx + b y=kx+b
其实线性回归也是这么一个简单的方程,或者说函数。我们现在回到初中,来解决下面这个问题。

直线l经过点A(1, 4),和点B(3, 7),求直线l的方程。

这个问题很简单,我们只需要将A、B点带入y = kx + b就可以得到下面方程组:
{ 4 = k + b 7 = 3 k + b

{4=k+b7=3k+b { 4 = k + b 7 = 3 k + b
{4=k+b7=3k+b

{ k = 1.5 b = 2.5
{k=1.5b=2.5 { k = 1.5 b = 2.5
{k=1.5b=2.5

于是我们得到直线方程:
y = 1.5 x + 2.5 y = 1.5x + 2.5 y=1.5x+2.5
在我们得到直线方程后,我们对于任意给定的x,都能知道它对应的y。现在我们需要对问题进行调整。

2.2、线性回归

现在我们有下面这组数据:

(1, 12)
(2, 16)
(3, 22)
(4, 26)
(5, 29)
(6, 33)
(7, 37)
(8, 41)
(9, 45)
(10, 48)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

我们还是假设上面的点都在一条直线上,这时候我们先取点(1,12)和点(4,26),我们可以算出直线方程为如下:
y = 14 3 x + 22 3 y = \frac{14}{3}x + \frac{22}{3} y=314x+322
现在我们再选取点(2,16)和点(6,33),我们可以计算出下面的直线方程:
y = 17 4 x + 15 2 y = \frac{17}{4}x + \frac{15}{2} y=417x+215
由此可以看到这四个点并不在同一条直线上。但是对比斜率和截距又发现,两者很相近。所以我们可以找一条折中的直线来拟合所有的点。

我们从数据中,找到这条最优(较优)的直线的过程就叫做线性回归。

三、非线性的问题

3.1、分段函数

在前面,我们讨论的数据都是从一条直线中产生的。但是有时候我们的数据的分布可能并没有那么简单,我们的数据分布可能更接近一个分段函数,比如下面的图片:

在这里插入图片描述

这个时候用线性方程就表示不了我们数据的分布。那我们要怎么表示上面的方程呢?

我们可以把上面的函数看出是一系列特殊函数的相加,这个特殊函数的图像如下:

在这里插入图片描述

从图像可以看出,这个函数只在某一个范围内有斜率。在范围左侧的值为0,当超出范围右侧后值不再改变。我们可以通过调整这个函数的斜率以及斜率生效的范围,来得到各式各样的函数,比如下面几个:

在这里插入图片描述

函数1到4都是都是通过调节特殊函数的斜率以及斜率生效范围生成的。只有第一个函数比较特别,它的斜率生效范围为空。

那么我们怎么用这些特殊函数组成一个分段函数呢?其实只要你仔细观察,就会发现把这四个函数相加就是我们最开始的分段函数。如下图,这里为了方便观看将特殊函数移动了位置。

在这里插入图片描述

现在我们可以把上面的函数简写成:
y = f 1 ( x ) + f 2 ( x ) + f 3 ( x ) + f 4 ( x ) y = f1(x) + f2(x) + f3(x) + f4(x) y=f1(x)+f2(x)+f3(x)+f4(x)
为了更直观看到效果。下面我们用程序来合成一下这个分段函数。

3.2、合成分段函数

我们先编写一个创建特殊函数的函数,代码如下:

def create_special(x, start, end, k): f = [] temp = 0 for i in x: # 当小于起始值函数值为0 if i <= start: f.append(0) # 当在一定范围,为一个截距为0,斜率为k的直线 elif start < i <= end: # 这里start不为0,所以我们需要减去它,保证函数截距为0,然后乘k f.append((i - start) * k) # 记录最后的值 temp = (i - start) * k # 当超出范围则值保持不变 else: f.append(temp) return np.array(f)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

我们来用上面的函数绘制几个图像:

import numpy as np
import matplotlib.pyplot as plt


def create_special(x, start, end, k): pass


if __name__ == '__main__': x = np.linspace(0, 20, 200) y1 = create_special(x, 10, 20, 2) y2 = create_special(x, 5, 10, 3) y3 = create_special(x, 0, 15, -4) y4 = create_special(x, 0, 12, 1) plt.subplot(221) plt.plot(x, y1) plt.title("k = 2") plt.subplot(222) plt.plot(x, y2) plt.title("k = 3") plt.subplot(223) plt.plot(x, y3) plt.title("k = -4") plt.subplot(224) plt.plot(x, y4) plt.title("k = 1") plt.show()

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

绘制的图像如下:

在这里插入图片描述

可以看到,生成了我们想要的特殊函数。于是我们就可以用这些特殊函数来拟合一些分段函数,下面是其中一个例子:

import numpy as np
import matplotlib.pyplot as plt


def create_special(x, start, end, k): pass


if __name__ == '__main__': x = np.linspace(0, 20, 200) y1 = create_special(x, 0, 10, 2) y2 = create_special(x, 10, 15, -3) y3 = create_special(x, 15, 20, 1) y = 3 + y1 + y2 + y3 plt.plot(x, y, c='r') plt.show()

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

我们生成的图像如下:

在这里插入图片描述

我们只要合适的特殊函数就能拟合所有的分段函数。

3.3、连续函数

在上面我们讨论的是分段函数,但是生活中有许多情况我们的数据是有一个连续函数产生的。比如我们的数据分布情况可能如下图:

在这里插入图片描述

这个时候我们要怎么用特殊函数表示呢?

其实这个也非常简单,我们只需要把连续的函数拆分成一个分成很多断的分段函数即可,我们可以拆分成如下图:

在这里插入图片描述

当我们分得足够细时,这个分段函数就可以很好的拟合连续函数。现在我们把连续函数转换成了分段函数,接下来又可以用特殊函数来组合成我们的分段函数。这样我们就可以通过特殊函数实现连续函数的拟合。

四、神经网络

4.1、激活函数

接下来我们来看一个特殊的函数,它的数学式如下:
y = c 1 1 + e − ( b + w x ) y = c\frac{1}{1 + e^{-(b + wx)}} y=c1+e(b+wx)1
其中c、b、w是三个参数。我们来看看c=1,b=0,w=1时的图像:

在这里插入图片描述

从样子上来看,和我们前面说的特殊函数很像。其实这个就是鼎鼎大名的sigmoid函数,使用特殊函数能完成的事情,sigmoid也是可以完成的。我们可以尝试使用不同的参数对比一下:

在这里插入图片描述

当我们调节k值时,sigmoid函数的斜率(如果近似看出特殊函数)在变换。调节b时,函数在左右移动。调节c时,函数在上下波动。

因此我们只需要调节这几个参数,就可以构造任意的特殊函数,也就能拟合任意的函数。

4.2、神经网络

我们有了sigmoid函数后,我们的一元复合函数就可以写成:
y = s i g m o i d 1 ( x ) + s i g m o i d 2 ( x ) + ⋅ ⋅ ⋅ + s i g m o i d n ( x ) y = sigmoid_1(x) + sigmoid_2(x) +···+sigmoid_n(x) y=sigmoid1(x)+sigmoid2(x)++sigmoidn(x)
其中下标用来区分sigmoid的不同参数。我们用图示来表示上面的函数:

在这里插入图片描述

我们将x作为输入,然后经过数个sigmoid函数,然后相加后输入y。从图可以看出,其实我们的sigmoid函数就是常说的神经元,而一个由sigmoid函数复合而成的复合函数就是一层网络。

下面我们来看多元的情况,多元复合函数形式如下:
y = ∑ i = 1 n ∑ j = 1 n s i g m o i d i ( x j ) y = \sum_{i=1}^n\sum_{j=1}^nsigmoid_i(x_j) y=i=1nj=1nsigmoidi(xj)
多元复合函数的图示如下:

在这里插入图片描述

这幅图就是我们常说的全连接神经网络,不过这个神经网络只有一层。这下,我们就揭开了单层神经网络的面纱了。理论上来讲,只要我们有足够多的神经元,我们就可以拟合任何复杂的函数。但是实际情况却又很多问题。

现在我们都知道,现在优秀的网络通常都不是单层的。这部分原因,下次为大家解答。感谢阅读~

文章来源: blog.csdn.net,作者:ZackSock,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/ZackSock/article/details/117221973

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

举报
请填写举报理由
0/200