ML之分类预测之ElasticNet之PLoR:在二分类数据集上调用Glmnet库训练PLoR模型(T2)

举报
一个处女座的程序猿 发表于 2021/03/26 23:26:39 2021/03/26
2.1k+ 0 0
【摘要】 ML之分类预测之ElasticNet之PLoR:在二分类数据集上调用Glmnet库训练PLoR模型(T2)     目录 输出结果 设计思路 核心代码     输出结果         设计思路   核心代码 for iStep in range(nSteps): lam = lam * lamMult betaIRLS = l...

ML之分类预测之ElasticNet之PLoR:在二分类数据集上调用Glmnet库训练PLoR模型(T2)

目录

输出结果

设计思路

核心代码


输出结果

 

 

设计思路

核心代码


      for iStep in range(nSteps):
       lam = lam * lamMult
       betaIRLS = list(beta)
       beta0IRLS = beta0
       distIRLS = 100.0
       iterIRLS = 0
      while distIRLS > 0.01:
       iterIRLS += 1
       iterInner = 0.0
       betaInner = list(betaIRLS)
       beta0Inner = beta0IRLS
       distInner = 100.0
      while distInner > 0.01:
       iterInner += 1
      if iterInner > 100: break
       betaStart = list(betaInner)
      for iCol in range(ncol):
       sumWxr = 0.0
       sumWxx = 0.0
       sumWr = 0.0
       sumW = 0.0
      for iRow in range(nrow):
       x = list(xNormalized[iRow])
       y = labels[iRow]
       p = Pr(beta0IRLS, betaIRLS, x)
      if abs(p) < 1e-5:
       p = 0.0
       w = 1e-5
      elif abs(1.0 - p) < 1e-5:
       p = 1.0
       w = 1e-5
      else:
       w = p * (1.0 - p)
       z = (y - p) / w + beta0IRLS + sum([x[i] * betaIRLS[i] for i in range(ncol)])
       r = z - beta0Inner - sum([x[i] * betaInner[i] for i in range(ncol)])
       sumWxr += w * x[iCol] * r
       sumWxx += w * x[iCol] * x[iCol]
       sumWr += w * r
       sumW += w
       avgWxr = sumWxr / nrow
       avgWxx = sumWxx / nrow
       beta0Inner = beta0Inner + sumWr / sumW
       uncBeta = avgWxr + avgWxx * betaInner[iCol]
       betaInner[iCol] = S(uncBeta, lam * alpha) / (avgWxx + lam * (1.0 - alpha))
       sumDiff = sum([abs(betaInner[n] - betaStart[n]) for n in range(ncol)])
       sumBeta = sum([abs(betaInner[n]) for n in range(ncol)])
       distInner = sumDiff/sumBeta
       a = sum([abs(betaIRLS[i] - betaInner[i]) for i in range(ncol)])
       b = sum([abs(betaIRLS[i]) for i in range(ncol)])
       distIRLS = a / (b + 0.0001)
       dBeta = [betaInner[i] - betaIRLS[i] for i in range(ncol)]
       gradStep = 1.0
       temp = [betaIRLS[i] + gradStep * dBeta[i] for i in range(ncol)]
       betaIRLS = list(temp)
       beta = list(betaIRLS)
       beta0 = beta0IRLS
       betaMat.append(list(beta))
       beta0List.append(beta0)
       nzBeta = [index for index in range(ncol) if beta[index] != 0.0]
      for q in nzBeta:
      if not(q in nzList):
       nzList.append(q)
  
 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/85857823

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

作者其他文章

评论(0

抱歉,系统识别当前为高风险访问,暂不支持该操作

    全部回复

    上滑加载中

    设置昵称

    在此一键设置昵称,即可参与社区互动!

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。