迁移到Serverless实时推理
重要的
这个文档已经退休了,可能不会被更新。产品、服务或技术中提到的这些内容不再支持。
本文中的指导是模型的预览版本,以前Serverless实时推理功能。砖建议您迁移模型的工作流服务可用的一般功能。看到模型服务与砖。
预览
这个特性是在公共预览。
本文演示了如何启用Serverless实时推理模型使用工作区和开关遗留MLflow模型服务与Serverless实时推理模型服务。
有关Serverless实时推理的一般信息,明白了模型服务Serverless实时推理。
需求
模型在MLflow模型注册中心注册。
集群在工作区中创建权限。看到配置集群创造福利。
可以管理产品版本注册的权限模型。看到MLflow模型权限。
重大的改变
在Serverless实时推理,请求发送到端点的格式和端点的响应从遗留MLflow模型略有不同。看到评分模型端点新格式协议的细节。
在Serverless实时推理,包括端点URL
model-endpoint
而不是模型
Serverless实时推理包括完全支持工作流管理资源与API生产就绪。
启用Serverless实时推理工作区
重要的
Serverless实时推理必须启用您的工作区。第一次是启用的工作区,工作区管理必须阅读并接受条款和条件。
为您的工作区来启用Serverless实时推理:
禁用遗留MLflow模型服务您的模型
之前您可以启用Serverless实时推理模型,你需要禁用遗留MLflow模型服务目前服务模型。
以下步骤展示了如何做到这一点的UI。
导航到模型侧边栏的机器学习的工作区。
选择你想要的模型禁用遗留MLflow模型服务。
在服务选项卡上,选择停止。
消息似乎证实。选择停止供应。
使Serverless实时推理模型
一旦Serverless实时推理上启用您的工作空间,您将看到下面的屏幕上服务选项卡的注册模型。使Serverless实时推理模型,点击使Serverless实时推理按钮。
重要的
如果您没有看到这个按钮,但是你不是看到一个支持服务按钮,您使用的是端点为遗留MLflow模型服务端点不Serverless模型。工作空间管理员联系在这个工作区启用这个特性。