迁移到Serverless实时推理

重要的

  • 这个文档已经退休了,可能不会被更新。产品、服务或技术中提到的这些内容不再支持。

  • 本文中的指导是模型的预览版本,以前Serverless实时推理功能。砖建议您迁移模型的工作流服务可用的一般功能。看到模型服务与砖

预览

这个特性是在公共预览

本文演示了如何启用Serverless实时推理模型使用工作区和开关遗留MLflow模型服务与Serverless实时推理模型服务。

有关Serverless实时推理的一般信息,明白了模型服务Serverless实时推理

需求

重大的改变

  • 在Serverless实时推理,请求发送到端点的格式和端点的响应从遗留MLflow模型略有不同。看到评分模型端点新格式协议的细节。

  • 在Serverless实时推理,包括端点URLmodel-endpoint而不是模型

  • Serverless实时推理包括完全支持工作流管理资源与API生产就绪。

启用Serverless实时推理工作区

重要的

Serverless实时推理必须启用您的工作区。第一次是启用的工作区,工作区管理必须阅读并接受条款和条件。

为您的工作区来启用Serverless实时推理:

  1. 参加预览。

    1. 伸出你的砖代表请求加入Serverless实时推理公共预览

    2. 砖给你发送一个谷歌的形式。

    3. 填写表单并提交数据砖。工作区招收的表单包含信息。

    4. 等到砖通知你参加预览您的工作区。

  2. 作为一个工作空间管理、访问管理员设置页面

  3. 选择工作空间设置

  4. 选择MLflow Serverless实时推理实现

禁用遗留MLflow模型服务您的模型

之前您可以启用Serverless实时推理模型,你需要禁用遗留MLflow模型服务目前服务模型。

以下步骤展示了如何做到这一点的UI。

  1. 导航到模型侧边栏的机器学习的工作区。

  2. 选择你想要的模型禁用遗留MLflow模型服务。

  3. 服务选项卡上,选择停止

  4. 消息似乎证实。选择停止供应

使Serverless实时推理模型

一旦Serverless实时推理上启用您的工作空间,您将看到下面的屏幕上服务选项卡的注册模型。使Serverless实时推理模型,点击使Serverless实时推理按钮。

服务面板

重要的

如果您没有看到这个按钮,但是你不是看到一个支持服务按钮,您使用的是端点为遗留MLflow模型服务端点不Serverless模型。工作空间管理员联系在这个工作区启用这个特性