DataScience:深入探讨与分析机器学习中的数据处理之非线性变换—log对数变换、sigmoid/softmax变换

举报
一个处女座的程序猿 发表于 2021/03/26 23:09:07 2021/03/26
【摘要】 DataScience:深入探讨与分析机器学习中的数据处理之非线性变换—log对数变换、sigmoid/softmax变换       目录 深入探讨与分析机器学习中的数据处理之非线性变换 log对数变换 sigmoid/softmax变换 Sigmoid函数 Softmax函数     相关文章Da...

DataScience:深入探讨与分析机器学习中的数据处理之非线性变换—log对数变换、sigmoid/softmax变换

 

 

 

目录

深入探讨与分析机器学习中的数据处理之非线性变换

log对数变换

sigmoid/softmax变换

Sigmoid函数

Softmax函数


 

 

相关文章
DataScience:深入探讨与分析机器学习中的数据处理之线性变换—标准化standardization、归一化Normalization/比例化Scaling的区别与联系
DataScience:深入探讨与分析机器学习中的数据处理之非线性变换—log对数变换、sigmoid/softmax变换

 

 

深入探讨与分析机器学习中的数据处理之非线性变换

log对数变换

         如果a(a>0,且a≠1)的b次幂等于N,即ab=N,那么数b叫做以a为底N的对数,记作logaN=b(其中a叫做对数的底数,N叫做真数),这就是对数变换。

 

 

sigmoid/softmax变换

参考文章:DL之AF:机器学习/深度学习中常用的激活函数(sigmoid、softmax等)简介、应用、计算图实现、代码实现详细攻略

Sigmoid函数

       Sigmoid函数是一个在生物学中常见的S型函数,也称为S型生长曲线。 [1]  在信息科学中,由于其单增以及反函数单增等性质,Sigmoid函数常被用作神经网络激活函数,将变量映射到0,1之间。

  • 优点:平滑、易于求导。
  • 缺点:激活函数计算量大,反向传播求误差梯度时,求导涉及除法;反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。
  •  

Softmax函数

       在数学,尤其是概率论和相关领域中,归一化指数函数,或称Softmax函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。该函数多于多分类问题中。


  
  1. import math
  2. z = [1.0, 2.0, 3.0, 4.0, 1.0, 2.0, 3.0]
  3. z_exp = [math.exp(i) for i in z]
  4. print(z_exp) # Result: [2.72, 7.39, 20.09, 54.6, 2.72, 7.39, 20.09]
  5. sum_z_exp = sum(z_exp)
  6. print(sum_z_exp) # Result: 114.98
  7. # Result: [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]
  8. softmax = [round(i / sum_z_exp, 3) for i in z_exp]
  9. print(softmax)

 

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/104965966

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。