亚马逊AWS官方博客

Category: Artificial Intelligence

HAQM Bedrock Prompt Optimization 助力阅文集团革新大语言模型应用

HAQM Bedrock APO 在阅文集团海外业务的智能文本处理流程中已经得到了广泛应用,在提示词优化方面发挥着至关重要的作用。 通过显著提升长文本分析等任务的准确率,并大幅简化提示词工程过程,APO 使阅文集团能够充分释放大型语言模型的潜力。 这一案例有力地展示了 APO 在各行各业中革新大型语言模型应用的巨大潜力,不仅能够节省大量时间,还能显著提升性能。随着人工智能技术的不断进步,像 APO 这样的工具将在帮助企业充分发挥大型语言模型的优势,实现运营效益最大化方面扮演越来越重要的角色。

用 DeepSeek 构建从自然语言到 PNR 机器指令的转换系统

在航空票务领域,PNR 是航空公司存储旅客预订信息的电子记录,传统票务代理需掌握复杂 PNR 指令系统操作,其格式严格、代码繁多、参数复杂且错误率高,学习成本大、易出错。本项目旨在构建自然语言到 PNR 机器指令转换系统,实现准确理解用户意图、识别关键实体、生成标准指令、支持复杂场景及具备高容错性等功能,以简化票务代理工作流程、提升效率,为智能客服系统奠基。

从零开始:使用 HAQM Q CLI 开发一款软件

本文深入探讨了 HAQM Q Developer CLI,这是一款由 AWS 推出的 AI 驱动的命令行开发工具。通过实际案例,文章详细阐述了该工具在代码生成、AWS 资源管理、系统操作和开发工作流集成等方面的强大功能。作者以开发一个依赖包过期检查工具为例,展示了如何使用 HAQM Q Developer CLI 快速构建和优化软件项目,并对 AI 辅助开发的未来趋势进行了深入思考和展望。

基于 HAQM Bedrock 和 HAQM Connect 打造智能客服自助服务 – 设计篇

本文探讨亚马逊云科技 HAQM Connect 与 HAQM Bedrock 构建智能呼叫中心方案,通过提示词工程和 RAG 知识库提升客户体验,利用 Connect 随路数据简化提示词缓存机制。方案从技术实现与成本效益双维度出发,结合模型选型分析及详细费用测算,为搭建兼顾性能与成本的智能化呼叫中心提供最佳实践参考,特别优化了系统架构的实用性和经济性。

Apache Seatunnel & HAQM Bedrock 助力生成式 AI 应用规模化生产实践

在本方案中,我们以 SeaTunnel 为数据处理主干,利用其 Source 模块从业务数据库/对象存储中实时提取原始数据,使用 Transform 模块调用HAQM Bedrock 接口完成文本向量化,最终通过 Sink 模块将结果写入 HAQM OpenSearch,构建支持语义检索的向量索引。

HAQM Inf2 上的 DeepSeek-R1 蒸馏模型:监控与评估实践

客户部署自己的大模型时,常常会遇到如何评估模型部署的性能和如何调优的问题, 本篇主要针对如何评估性能进行讨论。 基于 vllm 部署的模型, 通过 Prometheus 和 Grafana 如何取得模型推理的性能参数,以及如何解读这些参数进行讨论。 本文采用 inferentia2 作为测试环境, 因为本篇的目的主要是解读性能参数, 在这篇里不会讨论 inferentia2 的规格和运行配置进行优化。