基于 yolov8 的人体姿态评估

举报
山河已无恙 发表于 2023/08/28 12:28:30 2023/08/28
【摘要】 1写在前面工作中遇到,简单整理博文内容为使用预训练模型的一个预测 Demo测试图片来源与网络,如有侵权请告知理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》测试结果请添加图片描述YOLOv8 是一种高效而准确的目...

1写在前面

  • 工作中遇到,简单整理
  • 博文内容为使用预训练模型的一个预测 Demo
  • 测试图片来源与网络,如有侵权请告知
  • 理解不足小伙伴帮忙指正

对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》


测试结果

请添加图片描述请添加图片描述

YOLOv8 是一种高效而准确的目标检测算法,它在 YOLOv4 的基础上进行了改进和优化,提供了更好的性能和推断速度。适用于各种物体检测跟踪实例分割图像分类姿态估计任务。

同时, YOLOv8 提供了很完善的文档,包括中文文档。

项目地址:

https://github.com/ultralytics/ultralytics

安装很简单

pip install ultralytics

ultralytics_demo\examples\demo\demo Demo 文件位置

from ultralytics import YOLO
from PIL import Image
import cv2

model = YOLO("C:\\Users\\liruilong\\.yolo_model\\yolov8x-pose-p6.pt")


# from ndarray
im2 = cv2.imread("Y:\\image8.jpg")

#results = model(im2)  # predict on an image
results = model(im2)


for r in results:
    #im_array = r.plot(kpt_radius=3,labels=False,boxes=False,line_width=1)  # plot a BGR numpy array of predictions
    im_array = r.plot(line_width=2)  # plot a BGR numpy array of predictions
    im_array = Image.fromarray(im_array[..., ::-1])  # RGB PIL image
    im_array.show()  # show image
    im_array.save('results.jpg')  # save image

对应的预训练模型下载地址可以在项目中找到,对应预测参数,以及结果展示的参数配置文档见下面:

https://docs.ultralytics.com/modes/predict/#streaming-source-for-loop

2博文部分内容参考

© 文中涉及参考链接内容版权归原作者所有,如有侵权请告知,这是一个开源项目,如果你认可它,不要吝啬星星哦 :)


https://docs.ultralytics.com/

https://github.com/ultralytics/ultralytics


© 2018-2023 liruilonger@gmail.com, All rights reserved. 保持署名-非商用-相同方式共享(CC BY-NC-SA 4.0)

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。