上QQ阅读APP看书,第一时间看更新
1.5.6 推理/预测
训练完模型后,下一步是在集群中提供模型服务,这样它就可以处理预测请求。Kubeflow让数据科学家可以轻松地在生产环境中大规模部署机器学习模型。目前,Kubeflow除了现有的TensorFlow Serving和Seldon Core等解决方案外,还提供了一个用于模型服务的多框架组件:KFServing。
在Kubeflow上提供模型服务是相当直接的。在大多数情况下,你不需要自己构建或定制一个容器,只需将Kubeflow指向模型的存储位置,服务器就会准备好服务请求。
一旦模型提供服务,就需要对其性能进行监控,并可能需要对其进行更新。这种监控和更新是通过Kubeflow的云原生设计实现的,详见第8章。