亚马逊AWS官方博客
Category: Artificial Intelligence
在 AWS 上通过宝塔面板私有化部署 DeepSeek-R1 蒸馏模型
本文通过在 HAQM EC2 上使用宝塔面板私有化部署蒸馏后的 DeepSeek-R1 模型。这个方案易于搭建,支持在北京 BJS 以及宁夏 ZHY 区域部署,让您轻松体验私有化的 DeepSeek 模型。
HAQM Bedrock Prompt Optimization 助力阅文集团革新大语言模型应用
HAQM Bedrock APO 在阅文集团海外业务的智能文本处理流程中已经得到了广泛应用,在提示词优化方面发挥着至关重要的作用。 通过显著提升长文本分析等任务的准确率,并大幅简化提示词工程过程,APO 使阅文集团能够充分释放大型语言模型的潜力。 这一案例有力地展示了 APO 在各行各业中革新大型语言模型应用的巨大潜力,不仅能够节省大量时间,还能显著提升性能。随着人工智能技术的不断进步,像 APO 这样的工具将在帮助企业充分发挥大型语言模型的优势,实现运营效益最大化方面扮演越来越重要的角色。
用 DeepSeek 构建从自然语言到 PNR 机器指令的转换系统
在航空票务领域,PNR 是航空公司存储旅客预订信息的电子记录,传统票务代理需掌握复杂 PNR 指令系统操作,其格式严格、代码繁多、参数复杂且错误率高,学习成本大、易出错。本项目旨在构建自然语言到 PNR 机器指令转换系统,实现准确理解用户意图、识别关键实体、生成标准指令、支持复杂场景及具备高容错性等功能,以简化票务代理工作流程、提升效率,为智能客服系统奠基。
从零开始:使用 HAQM Q CLI 开发一款软件
本文深入探讨了 HAQM Q Developer CLI,这是一款由 AWS 推出的 AI 驱动的命令行开发工具。通过实际案例,文章详细阐述了该工具在代码生成、AWS 资源管理、系统操作和开发工作流集成等方面的强大功能。作者以开发一个依赖包过期检查工具为例,展示了如何使用 HAQM Q Developer CLI 快速构建和优化软件项目,并对 AI 辅助开发的未来趋势进行了深入思考和展望。
基于 HAQM Bedrock 和 HAQM Connect 打造智能客服自助服务 – 设计篇
本文探讨亚马逊云科技 HAQM Connect 与 HAQM Bedrock 构建智能呼叫中心方案,通过提示词工程和 RAG 知识库提升客户体验,利用 Connect 随路数据简化提示词缓存机制。方案从技术实现与成本效益双维度出发,结合模型选型分析及详细费用测算,为搭建兼顾性能与成本的智能化呼叫中心提供最佳实践参考,特别优化了系统架构的实用性和经济性。
使用 HAQM Q Developer 构建企业自动化代码审核流程
本文使用 HAQM Q Developer 的人工智能开发助手,构建了自动化的企业代码审核流程。
Apache Seatunnel & HAQM Bedrock 助力生成式 AI 应用规模化生产实践
在本方案中,我们以 SeaTunnel 为数据处理主干,利用其 Source 模块从业务数据库/对象存储中实时提取原始数据,使用 Transform 模块调用HAQM Bedrock 接口完成文本向量化,最终通过 Sink 模块将结果写入 HAQM OpenSearch,构建支持语义检索的向量索引。
AWS 一周综述:HAQM S3 Express One Zone 存储类降价、Pixtral Large 在 HAQM Bedrock 中推出、HAQM Nova Sonic 发布等(2025 年 4 月 14 日)
2025 年 AWS Summit 本周正式开启,首站巴黎 Summit 率先拉开帷幕。这些免费活动汇聚全球云 […]
HAQM Inf2 上的 DeepSeek-R1 蒸馏模型:监控与评估实践
客户部署自己的大模型时,常常会遇到如何评估模型部署的性能和如何调优的问题, 本篇主要针对如何评估性能进行讨论。 基于 vllm 部署的模型, 通过 Prometheus 和 Grafana 如何取得模型推理的性能参数,以及如何解读这些参数进行讨论。 本文采用 inferentia2 作为测试环境, 因为本篇的目的主要是解读性能参数, 在这篇里不会讨论 inferentia2 的规格和运行配置进行优化。
一键部署 Ollama 与 OpenWebUI 至 HAQM EC2
本文将介绍如何通过一键操作,在 HAQM EC2 实例上部署 Ollama 与 OpenWebUI,实现本地大语言模型(LLM)环境的快速启动。