亚马逊AWS官方博客
Aurora MySQL 2 升级之蓝绿部署切换后自动搭建 DMS 回滚复制的方案
很多客户为了 Aurora 升级方案更加完备,会增加回滚方案,即在蓝绿部署切换后,需要搭建 1 个从新主集群到旧蓝集群的数据复制链路,目的是把新主集群的数据变化准实时同步回旧的蓝环境。目前蓝绿部署功能,在切换后暂不支持自动搭建回滚复制,本文提供一种方案,自动捕捉蓝绿部署切换完成的事件,调用 Lambda 函数,利用 DMS CDC 复制任务,自动搭建回滚复制链路。
利用 FP8 量化加速 Llama-3-70B 推理
本文针对在 HAQM P5 (H100 GPU) 上部署 Llama-3-70b FP8 精度模型的两种方 […]
HAQM SageMaker HyperPod 存储设计与实践(二)
在 HAQM SageMaker HyperPod存储设计与实践(一)中我们实现了 SageMaker H […]
在 HAQM SageMaker 平台上使用 LlamaFactory 框架训练 Meta Llama3
背景 相较于直接使用 EC2,通过 HAQM SageMaker 进行模型训练具有训练环境统一,降低训练实 […]
使用 HAQM Q 加速软件开发生命周期
软件开发团队一直在寻求加速软件开发生命周期(SDLC)的方法,以更快地发布高质量软件。作为一款由生成式人工智能 […]
使用 HAQM Bedrock Cohere 多语言嵌入模型构建金融搜索应用程序
这篇文章展示了使用 HAQM Bedrock 上的 Cohere Embed 和 Rerank 模型,在不同语言的金融新闻中进行搜索和查询的应用程序。
为生成式 AI 工作负载设计弹性
理解并优先考虑弹性对于生成式 AI 工作负载来满足组织的可用性和业务连续性要求至关重要。这篇文章讨论了生成式 AI 工作负载的不同技术栈以及应该考虑的因素。
基于 AWS Step Functions 和 AWS Batch 服务构建宏基因分析工作负载
本文旨在介绍一个在 AWS 上构建宏基因分析工作负载的方案,该方案对常用的一些宏基因分析软件完成了容器化,并以批量计算服务 AWS Batch 为核心,构建容器化的宏基因分析集群和自动化工作流。本方案已经在多个客户的实际宏基因分析业务中得到应用,如土壤微生物/病毒宏基因分析,海洋微生物宏基因分析等。根据客户的实际业务场景,本方案也可以扩展到通用的基因分析场景。
Zero-ETL 在支付业务离线数据上的实践
人工智能和大数据技术的日渐火爆,越来越多的客户打算构建自己的数据仓库来实现对数据的分析。然而对于部分大数据技术处于起步阶段或者不打算在大数据方面投入过多人力成本的客户来说,复杂的数据重建和高昂的维护成本对他们来说是巨大的挑战。Zero-ETL 功能正是在此时推出来帮助客户解决此类问题。
Cloud Foundations 演示视频集之一:从安装部署到日常运维
Cloud Foundations 解决方案经过两年多的发展完善,功能日益丰富,涵盖从基础着陆区的安全基线配置到跨区域共享网络、云资源自动化管理、多维度安全治理等,涉及云上环境基础设施运维管理各个角落。本文特别归纳并演示 Cloud Foundations 生命周期和运维管理的数个重要过程和关键步骤,以便读者对其有更直观了解和更详实认识。