如何部署模型到ModelArts并远程调用 (五):如何调用在线API服务
如何调用在线API服务
首先需要将导入的模型部署成一个在线API服务,然后根据调用指南中的API信息和指导文档,使用HTTPS请求进行调用。
部署模型为在线服务
模型将会被部署成一个在线的API服务,以restful API的形式通过网络对外提供服务,可以通过HTTPS协议来访问。
提示:API在启动中会一直收费,当不使用的时候,可以临时关闭,使用的时候再重新启动。
查看在线API服务的信息
在在线服务的详情页,可以看到调用指南,这里面会显示API接口地址、和POST请求的输入参数和输出参数。记录下这些信息,后面通过HTTPS请求远程调用会用到这些信息。
获取token
调用在线API服务需要鉴权,自己部署的API的只能自己调用。
token就是调用API需要的鉴权信息,可以使用用户名和密码生成token,有效期是24小时。为避免频繁生成token, 建议在本地对token进行缓存,当token失效时再生成新的token,否则可能会触发流量控制。
获取用户token参考此文档。
校验token有效性参考此文档。
获取token过程中注意区域和使用ModelArts的区域保持一致,建议都用北京四区域。
调用在线服务
当token和在线API服务的信息都准备好之后,终于可以调用这个API了。
调用在线API服务参考此文档。该文档演示了通过curl命令发送HTTPS请求,在真实的使用场景中,需要使用编程语言中的HTTP客户端类来发送HTTPS请求。在调试阶段,我们可以通过curl命令来调试在线API服务的可用性。
在该示例中,我们可以注意到,在HTTPS请求的headers中加入了鉴权信息(即token),其他的调用方法同标准的HTTPS请求。
好啦,如果你走到这一步,那么恭喜你,大功告成!
附:
如何部署模型到ModelArts并远程调用 (一):保存模型为平台支持的格式
如何部署模型到ModelArts并远程调用 (二):编写推理配置文件
- 点赞
- 收藏
- 关注作者
评论(0)