客户案例 / 零售

2022 年
HAQM 徽标

HAQM Robotics 借助 HAQM SageMaker 和 AWS Inferentia 实现大规模机器学习推理

HAQM Robotics 使用 HAQM SageMaker 开发出一种高效的机器学习模型,取代了亚马逊运营中心的手动扫描。HAQM Robotics 开始使用机器学习缓解库存装载流程中的瓶颈。该公司借助 HAQM SageMaker 克服了计算和托管方面的挑战,最终将推理成本降低了约 50%。

推理成本

节省近 50%

计算性能效率

提高 40%

通过

合理调整 HAQM EC2 实例的大小,节省 20% 的计算成本

概览

HAQM Robotics 开发高效的机器和软件,旨在提高亚马逊运营中心的效率。作为先进技术的供应商,HAQM Robotics 早就意识到,借助人工智能和机器学习(ML)自动执行运营流程的关键方面可以带来非常大的潜在收益。因此,在 2017 年,该公司组建了一个专门的团队来完成这个目标。
 
随着该公司对其机器学习项目进行迭代,它求助于 HAQM Web Services(AWS)并采用了 HAQM SageMaker。HAQM SageMaker 是一项托管式服务,可帮助数据科学家和开发人员快速准备、构建、训练和部署高质量机器学习模型。这样一来,HAQM Robotics 团队就摆脱了为了跨多个区域大规模运行推理而构建和管理 GPU 机群的艰巨任务。截至 2021 年 1 月,此解决方案已为该公司节省了大约 50% 的机器学习推理成本,将生产率提高了 20%,并且降低了整体成本。通过持续优化,在 2021 年末,Robotics 团队将部署从 GPU 实例转向基于 AWS Inferentia 的 HAQM EC2 Inf1 实例,从而多节省了 35% 的成本并将吞吐量提高了 20%。
亚马逊运营中心楼层

机会 | 构建机器学习模型,代替人工扫描

HAQM Robotics 借助其软件和机器自动执行亚马逊运营中心的库存处理流程。该公司的系统包含三个主要的物理组件:移动货架单元、机器人和员工工作台。机器人将移动货架单元运送到工作台,员工将库存放入(装载)或取出(拣选)。HAQM Robotics 高级软件经理 Eli Gallaudet 表示:“我们现在的装载和拣选工作流有时会给下游流程造成瓶颈。2017 年,我们启动了一项计划,旨在弄清如何简化其中的一些工作流。”

为减少耗时的箱体扫描工作,HAQM Robotics 构建了 Intent Detection System,这是一个基于深度学习的计算机视觉系统,并通过数百万个装载操作的示例视频对其进行了训练。该公司希望训练此系统自动识别员工放置库存物品的位置。HAQM Robotics 意识到,这需要使用云计算将深度学习模型部署到亚马逊运营中心,因此求助于 AWS。该团队将其模型部署到 Docker 容器,使用完全托管式容器编排服务 HAQM Elastic Container Service(HAQM ECS)进行托管。

在该团队收集到足够的装载操作示例视频之后,就尝试将模型架构应用于大型带注释的视频数据集。经过几次迭代之后,该团队可以开始让已部署的模型自动执行流程。

kr_quotemark

我们的系统将在 2022 年内使用超过 1000 个 SageMaker 主机,AWS Inferentia 让我们有机会快速增加流量,同时将成本降低 35%,吞吐量提高 20%,而不必重新训练我们的机器学习模型。

Pei Wang
HAQM Robotics 软件工程师

解决方案 | 将托管和管理流程迁移到 HAQM SageMaker

虽然 HAQM Robotics 可以利用 AWS 上的丰富计算资源,但该公司仍然需要自行处理托管。AWS 在 AWS re:Invent 2017 上宣布推出 HAQM SageMaker 后,HAQM Robotics 很快就采用了这项服务,无需自行构建昂贵的托管解决方案。HAQM Robotics 是最早大规模部署到 HAQM SageMaker 的公司,而且截至 2021 年 1 月,仍然是最大规模的部署之一。

最初,该团队主要使用 HAQM SageMaker 托管模型。HAQM Robotics 根据需要调整其服务使用方式,最初是使用混合架构,并在本地和云上分别运行一些算法。HAQM Robotics 高级软件经理 Tim Stallman 说:“我们构建了一组核心功能,让我们能够打造出 Intent Detection System。然后,随着 HAQM SageMaker 功能上线,我们慢慢开始采用这些功能。” 例如,团队采用了 HAQM SageMaker Experiments 功能,该功能支持团队组织、追踪、比较和评估机器学习实验和模型版本。

HAQM Robotics 还采用了 HAQM SageMaker 弹性伸缩。Gallaudet 说:“HAQM SageMaker 不仅管理我们用于推理的主机,还会根据为工作负载提供支持的需要自动添加或删除主机。” 由于该公司无需自行采购或管理由 500 多个 GPU 组成的机群,因此节省了大约 50% 的推理成本。

获得托管式解决方案和 AWS Inferentia 的益处 

HAQM Robotics 已经取得非常大的成功。该公司已经通过 HAQM SageMaker 减少了在管理方面花费的时间,并且平衡了科学家与软件开发工程师之间的比例。HAQM SageMaker 还使系统在整个 HAQM 运营网络中不断推出更新期间能够进行横向扩展,并且该团队相信,HAQM SageMaker 能够处理其高峰推理需求。

此解决方案由 HAQM Elastic Compute Cloud(HAQM EC2)提供支持,后者在云中提供安全、可调整大小的计算容量,使用户能在有可用的新主机类型时快速迁移主机类型。通过从 HAQM EC2 P2 实例迁移到 HAQM EC2 G4 实例,HAQM Robotics 团队能够将推理成本降低 20%。现在,借助 AWS Inferentia,HAQM Robotics 团队能够通过 G4 实例进一步将推理成本降低 35%(从 P2 实例降低了 50%),并且 Inferentia 将吞吐量提高了 20%,使他们能够在一天内无需更多资源的情况下扫描更多资源包。“我们的系统将在 2022 年内使用超过 1000 个 SageMaker 主机,AWS Inferentia 帮助我们在快速增加流量的同时提高吞吐量,无需重新训练我们的机器学习模型,”HAQM Robotics 软件工程师 Pei Wang 说道。

由 HAQM SageMaker 提供支持的解决方案在初始部署之后得以快速发展。HAQM Robotics 团队最初在威斯康星州的一个运营中心小规模实施该解决方案,随后将其快速扩展到了几十个运营中心。随着解决方案不断发展,HAQM SageMaker 也快速而无缝地与其同步扩展。Gallaudet 说:“我们预计 2022 年的部署数量几乎翻倍。”

结果 | 持续稳步推进创新

该团队发现还可以在 AWS 上尝试其他许多机会,包括使用 HAQM SageMaker Edge Manager(用于跨智能设备机群高效管理和监控机器学习模型)在边缘运行其模型。HAQM Robotics 还希望构建能进一步自动追踪包裹并帮助自动评估包裹损害程度的模型。

通过尝试先进的技术,HAQM Robotics 继续提高运营中心的效率,改善 HAQM 客户体验。Stallman 说:“我们学到了许多技术,并且在 Intent Detection System 中积累了经验,这些直接助力我们快速推动这些项目。”

关于 HAQM Robotics

HAQM Robotics 开发软件并制造机器,旨在自动执行亚马逊运营中心的库存流程。

使用的 AWS 服务

HAQM EC2

HAQM EC2 是一种 Web 服务,可以在云中提供安全并且可调整大小的计算容量。该服务旨在让开发人员能够更轻松地进行 Web 规模的云计算。

了解更多 »

HAQM EC2 G4 实例

HAQM EC2 G4 实例是行业内成本效益较高的通用 GPU 实例,适用于部署机器学习模型(例如图像分类、物体检测和语音识别)和图形密集型应用程序(例如远程图形工作站、游戏串流和图像渲染)。

了解更多 »

HAQM ECS

HAQM ECS 是一项完全托管式容器编排服务。出于其安全性、可靠性和可扩展性,Duolingo、Samsung、GE 和 Cookpad 等客户都使用 ECS 运行他们较敏感的任务关键型应用程序。

了解更多 »

HAQM SageMaker

HAQM SageMaker 通过整合专门为机器学习 (ML) 构建的广泛功能集,帮助数据科学家和开发人员快速准备、构建、训练和部署高质量的机器学习模型。

了解更多 »

探索 HAQM 利用 AWS 开启的创新之旅

更多 HAQM 案例

未找到任何项目 

1

行动起来

无论行业无论规模,每天都有各种机构在使用 AWS 实现自身业务转型、实现企业愿景。欢迎您联系我们的专家,立即踏上您的 AWS 之旅。