ModelArts环境使用有感

举报
katzkuraki 发表于 2019/10/28 17:44:07 2019/10/28
【摘要】 ModelArts带我进入AI的世界,通过cloud提供web service能更快的体验到AI技术,再完成前5个实验之后,资源包时间使用光,无法继续实验的时候,考虑到是否可以在本地实现测试环境,对于一个新手来说困难和坑非常多特别是在windows环境下。主要是环境的搭建过程中碰到各种报错,排查起来非常消耗精力,ModelArts能提供一个更便捷性能更高的环境对于普通用户来说也能更好的去理解...

ModelArts带我进入AI的世界,通过cloud提供web service能更快的体验到AI技术,再完成前5个实验之后,资源包时间使用光,无法继续实验的时候,考虑到是否可以在本地实现测试环境,对于一个新手来说困难和坑非常多特别是在windows环境下。主要是环境的搭建过程中碰到各种报错,排查起来非常消耗精力,ModelArts能提供一个更便捷性能更高的环境对于普通用户来说也能更好的去理解AI技术本身,而非把时间消耗在环境搭建上。以下是我尝试在本地完成人脸识别实验的过程,实际排错过程非常挣扎。如果也考虑电脑硬件成本的话,还是直接使用ModelArts去学习AI来的更加经济。

 

具体实验过程:

本机环境WIN10 T480 MX150独显

根据环境安装CUDA,Cudnn

image.png

通过官网下载ANACODA https://www.anaconda.com/distribution/

image.png

我下载Python 3.7 64bit版本

 

双击安装之后打开ANACODA

image.png

创建一个运行环境(选择python3.6)

image.png

打开环境Terminal

image.png

使用 conda install jupyter notebook命令安装notebook

使用conda install tensorflow-gpu命令安装tensorflow-gpu

或者用GUI安装

image.png

image.png

image.png

或者

image.png

安装opencv

image.png

安装一些相关需要的库

Pip install pillow

pip install pypiwin32


WIN环境dlib坑比较多,

从这里找来的dlib最新的版本只有19.8.1安装完之后发现load_rgb_image都没有。

https://pypi.org/simple/dlib/


image.png

那么只有从源码编译了,需要VS,CMAKE等工具,或者找一个编译好的,以下是连接

https://github.com/pzx521521/dlib-Python_whl_19.17.0_win_amd64/releases

下载并安装

pip install ./dlib-19.17.0-cp36-cp36m-win_amd64.whl

 

 

启动notebook,新建Python3

image.png

发现没有环境

conda install nb_conda_kernels

再次启动notebook

image.png

现在有实验环境可以选择了

然后我们照着十一期的内容去做就可以了,桶里的文件直接下载下载放在环境对应的目录中,下面是成功在本地完成人脸识别的截图

image.png

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。