将 Amazon SageMaker Canvas 中构建的 ML 模型部署到 Amazon Sag
- 2026-01-27 14:02:48
- 5
在 Amazon SageMaker Canvas 上部署 ML 模型到 Amazon SageMaker 实时端点
关键要点
Amazon SageMaker Canvas 现已支持将机器学习ML模型直接部署到实时推理端点,简化了模型上线的流程。该平台可让数据分析师和非技术人员无代码生成适合商业需求的精准预测。新功能允许用户在 SageMaker Canvas 中直接部署 ML 模型,避免手动导出与配置,提高了效率。原文作者:Janisha Anand 和 Indy Sawhney,发布日期:2023年11月2日,查看完整文章
Amazon SageMaker Canvas 现在支持将机器学习 (ML) 模型部署到实时推理端点,这使得用户可以将模型投入生产并基于 ML 驱动的洞察采取行动。SageMaker Canvas 是一个无代码工作区,旨在帮助分析师和普通数据科学家为其业务需求生成准确的 ML 预测。
先前功能与新功能
之前,SageMaker Canvas 仅提供模型评估、批量预测和假设分析等功能,但现在用户可以将模型部署到 Amazon SageMaker 的端点,实现实时推理。这一变更简化了模型预测的使用流程,使用户无需在 SageMaker Canvas 工作区外部进行复杂的手动操作,直接将 ML 模型投入生产,节省时间、降低难度,也让更多人能轻松运用 ML。
接下来,我们将介绍如何将 SageMaker Canvas 中的模型部署到实时端点。
解决方案概述
在本文案例中,我们假设自己是某手机运营商的营销部门业务用户,已经在 SageMaker Canvas 中成功创建了一个 ML 模型,用于识别可能流失的客户。通过模型生成的预测,我们希望将其从开发环境转移到生产环境。为了简化推理模型端点的部署流程,我们打算直接从 SageMaker Canvas 部署 ML 模型,从而消除手动导出、配置、测试和部署的需求。这不仅减少了复杂性,还节省了时间,使得更多普通用户无需编写代码即可实现 ML 模型的运营。
工作流程步骤
将当前客户群的新数据集上传至 SageMaker Canvas。有关支持的数据源的完整列表,请参见 导入数据到 Canvas。创建 ML 模型并分析性能指标。请查看 构建自定义模型 和 评估模型性能 的文档。将已批准的模型版本部署为实时推理端点。这些步骤可以在 SageMaker Canvas 中完成,无需编写任何代码。
前置条件
在进行本次演示之前,请确保满足以下前置条件:
SageMaker Canvas 管理员必须为使用者提供必要的权限,以便将模型版本部署到 SageMaker 端点。相关信息请参见 Canvas 中的权限管理。实现 使用 Amazon SageMaker Canvas 进行无代码机器学习预测客户流失的前置条件。在 Canvas 中,您应当有三个模型版本,基于历史流失预测数据进行训练:
模型版本特征数量配置类型模型分数V121快速构建配置96903V219快速构建配置97403V3根据配置标准构建配置97103使用客户流失预测模型
在模型详细信息页启用 显示高级指标,查看每个模型版本关联的目标指标,以便选择最佳性能的模型进行 SageMaker 端点部署。
基于性能指标,我们选择 V2 进行部署。
配置模型部署设置,包括部署名称、实例类型和实例数量。
作为起始点,Canvas 会自动推荐最适合您模型部署的实例类型和数量,您可以根据工作负载需求进行调整。
您可以直接在 SageMaker Canvas 内部测试已部署的 SageMaker 推理端点。
您可以使用 SageMaker Canvas 用户界面修改输入值,以推测额外的流失预测。
接下来,让我们导航到 Amazon SageMaker Studio 并查看部署的端点。
迅猛兔加速器免费下载在 SageMaker Studio 中打开一个笔记本,并运行以下代码以推测已部署的模型端点。请将模型端点名称替换为您自己的。
pythonimport boto3 sysimport pandas as pd
endpointname = canvascustomerchurnpredictionmodelsmrt = boto3Session()client(runtimesagemaker)
payload = [[PA 163 806 4032562 no yes 300 816 3 757 393 4 65 407 100 511 492 6 567 3]]body = pdDataFrame(payload)tocsv(header=False index=False)encode(utf8)
response = smrtinvokeendpoint(EndpointName=endpointname Body=body ContentType=text/csv Accept=application/json)
response = response[Body]read()decode(utf8)print(response)
我们的原始模型端点使用的是 mlm5xlarge 实例,实例数量为1。假设您预期使用该模型端点的用户数量会增加,那么您希望提供更多计算能力。您可以直接在 SageMaker Canvas 中通过选择 更新配置 实现这一点。
清理
为了避免未来产生费用,请删除您在此过程中创建的资源,包括退出 SageMaker Canvas 和 删除已部署的 SageMaker 端点。SageMaker Canvas 会根据会话持续时间进行计费,因此建议您在不使用时登出 SageMaker Canvas。有关更多信息,请参见 登出 Amazon SageMaker Canvas。
结论
在本文中,我们讨论了 SageMaker Canvas 如何将 ML 模型部署到实时推理端点,允许用户将 ML 模型投入生产并基于 ML 提供的洞察采取行动。通过我们的示例,展示了分析师如何在不编写任何代码的情况下快速构建高度准确的预测 ML 模型,将其部署为 SageMaker 端点,并从 SageMaker Canvas 及 SageMaker Studio 笔记本测试模型端点。
要开启您的低代码/无代码 ML 之旅,请访问 Amazon SageMaker Canvas。
特别感谢每位参与发布的团队成员:Prashanth Kurumaddali、Abishek Kumar、Allen Liu、Sean Lester、Richa Sundrani 和 Alicia Qi。
作者介绍
Janisha Anand 是 Amazon SageMaker 低/无代码机器学习团队的高级产品经理,负责 SageMaker Canvas 和 SageMaker Autopilot。她喜欢喝咖啡、保持活跃,和家人一起共度时光。

Indy Sawhney 是亚马逊网络服务的高级客户解决方案领导,始终从客户问题倒推,为 AWS 企业客户高管提供独特的云转型建议。Indy 在帮助企业组织采用新兴技术与商业解决方案方面拥有超过 25 年的经验,专注于 AI/ML 领域,尤其擅长生成 AI 和低代码/无代码的 Amazon SageMaker 解决方案。