亚马逊AWS官方博客

AWS Team

Author: AWS Team

Apache Seatunnel & HAQM Bedrock 助力生成式 AI 应用规模化生产实践

在本方案中,我们以 SeaTunnel 为数据处理主干,利用其 Source 模块从业务数据库/对象存储中实时提取原始数据,使用 Transform 模块调用HAQM Bedrock 接口完成文本向量化,最终通过 Sink 模块将结果写入 HAQM OpenSearch,构建支持语义检索的向量索引。

推陈出新 – Valkey 性能测试:探索版本变迁与云托管的效能提升

无论是对于降低内存数据库成本,还是追求性能的极致提升和功能的持续创新,Valkey 都为您提供了更加丰富的选择来升级或替代您的内存数据库或缓存系统。因此,本篇博客聚焦于通过全面的性能测试对比 Redis 与 Valkey 在不同版本和部署模式下的表现,深入分析托管环境与自建环境的性能差异,探讨 IO-threads 参数配置对性能的影响,并展示在不同 EC2 实例规格下 Valkey 的扩展能力。同时,本文将基于实测数据,为您提供在选择内存数据库时的性能参考指标,以及从 Redis 迁移到 Valkey 时可能获得的性能收益。

HAQM Inf2 上的 DeepSeek-R1 蒸馏模型:监控与评估实践

客户部署自己的大模型时,常常会遇到如何评估模型部署的性能和如何调优的问题, 本篇主要针对如何评估性能进行讨论。 基于 vllm 部署的模型, 通过 Prometheus 和 Grafana 如何取得模型推理的性能参数,以及如何解读这些参数进行讨论。 本文采用 inferentia2 作为测试环境, 因为本篇的目的主要是解读性能参数, 在这篇里不会讨论 inferentia2 的规格和运行配置进行优化。

全新 Graviton4 实例,提升 Valkey 性价比

Valkey 作为一个基于 Redis 的键值存储解决方案,以其卓越的性能和灵活性而闻名。同时,AWS 的 Graviton 处理器为云计算带来了新的可能性,提供了更高的性价比。本文将探讨如何利用 Graviton 实例来进一步提升自建 Valkey 的性价比,通过一系列测试和分析为读者提供实用的洞察和建议。

从 0 到可开发环境:一键部署 EC2、负载均衡与开发环境

本篇博客面向初学者和希望快速部署云上开发环境的用户,介绍如何通过一份可复用的 AWS CloudFormation 模板,一键部署 HAQM Elastic Compute Cloud、Application Load Balancer 和 Auto Scaling Group,并自动安装 Node.js、Python、Flask、Docker 等常用开发组件。该方案显著简化了云上环境搭建流程,可用于快速构建个人开发平台、临时测试环境或团队统一开发基础设施。

使用 SageMaker InferenceComponent 和 LiteLLM 构建自己的 MaaS 平台

通过 liteLLM,Sagemaker Inference Component 推理端点,构建一个统一的 MaaS 中台,客户不仅能够集成多种模型,还能充分利用高性能硬件,实现资源的高效管理。这种灵活且高效的架构,将为客户在人工智能领域的应用打下坚实的基础,助力其在竞争中脱颖而出。