tensorflow从入门到精通100讲(六)-在TensorFlow Serving/Docker中做keras 模型部署
【摘要】
前言
不知道大家研究过没有,tensorflow模型有三种保存方式:
训练时我们会一般会将模型保存成:checkpoint文件
为了方便python,C++或者其他语言部署你的模型,你可以将模型保存成一个既包含网络结构又包含权重参数的:PB文件
为了方便使用TensorFlow Serving 部署你的模型,你可以将模型保存...
前言
不知道大家研究过没有,tensorflow模型有三种保存方式:
- 训练时我们会一般会将模型保存成:checkpoint文件
- 为了方便python,C++或者其他语言部署你的模型,你可以将模型保存成一个既包含网络结构又包含权重参数的:PB文件
- 为了方便使用TensorFlow Serving 部署你的模型,你可以将模型保存成:Saved_model文件
博主是keras(tensorflow )的深度用户,经常把模型保存成HDF5格式。那么问题来了,如何把keras的模型转化成PB文件 或者 Saved_model文件供生成部署使用。今天博主就是来介绍一下如何将Keras的模型保存成PB文件 或者 Saved_model文件。
定义BERT二分类模型
下方函数定义的是一个标准的BERT做文本二分类的图结构。
-
from keras.models import Model
-
from keras.layers import *
-
from keras import backend as K
-
import tensorflow as tf
-
from keras_bert import get_model,compile_model
-
-
def load_bert_model_weight(bert_model_path):
-
-
b_model = get_model(token_num=21128,)
-
compile_model(b_model)
-
-
bert_model = Model(
-
inputs = b_model.input[:2],
-
outputs = b_model.get
文章来源: wenyusuran.blog.csdn.net,作者:文宇肃然,版权归原作者所有,如需转载,请联系作者。
原文链接:wenyusuran.blog.csdn.net/article/details/107337950
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)