亚马逊AWS官方博客

一键部署 Ollama 与 OpenWebUI 至 HAQM EC2

本文将介绍如何通过一键操作,在 HAQM EC2 实例上部署 Ollama 与 OpenWebUI,实现本地大语言模型(LLM)环境的快速启动。

简介

Ollama 是一款本地化的大语言模型运行平台,支持如 LLaMA、千问、Mistral 等开源模型,具备启动快、资源占用低的特点。

OpenWebUI 是一个开源的图形界面,兼容 Ollama,提供用户友好的模型交互体验,支持多会话管理、指令模式等功能。

部署前提

  • 拥有有效的 AWS 账户;
  • 若需使用 GPU 实例,但账户无相应配额,可能需通过 Support Center 提交工单申请。

部署步骤

步骤 1:点击部署链接

点击此处一键启动部署(请确保已登录 AWS 控制台)

步骤 2:选择镜像(AMI)

根据需求选择对应操作系统及是否支持 GPU:

系统类型 GPU 支持 AMI ID
HAQM Linux 2023 ami-0649526062db39ddd
Ubuntu ami-02110dbb07a2652b1
Ubuntu ami-04f167a56786e4b09
HAQM Linux 2023 ami-0d0f28110d16ee7d6
HAQM Linux 2 ami-05716d7e60b53d380
RedHat ami-0f6c1051253397fef
Debian ami-02da2f5b47450f5a8

注:HAQM Linux 为 Fedora 类发行版;若希望在 GPU 环境下运行 CentOS 类系统,请优先选择 HAQM Linux with GPU。

步骤 3:根据提示完成实例配置

在控制台中按界面提示完成实例类型、存储与安全组设置。建议选择具备足够计算资源的实例类型(如 g4dn.2xlarge)。

步骤 4:等待部署完成

系统将自动完成如下操作:

  • 安装并配置 Ollama;
  • 安装并启动 OpenWebUI;
  • 开启必要端口并启动服务。

部署完成后,可通过分配的公网 IP及端口 13638 访问 Web 界面。例如 http://xx.xx.xx.xx:13638

如果您有经过 ICP 备案过的域名,可以使用 route53 将流量路由到该 EC2,参考教程

如果您希望增加更多可选的模型,连接入 EC2 后,执行 ollama 指令进行 model pull,例如 sudo docker exec open-webui ollama pull llama3.2:1b

总结

通过本方案,用户可在数分钟内完成 Ollama 与 OpenWebUI 的自动化部署,适用于开发测试、模型交互及本地推理环境的快速搭建。如需进一步配置自定义模型或持久化数据,可参考后续文档。


*前述特定亚马逊云科技生成式人工智能相关的服务仅在亚马逊云科技海外区域可用,亚马逊云科技中国仅为帮助您了解行业前沿技术和发展海外业务选择推介该服务。

本篇作者

高志远

亚马逊云科技解决方案架构师,负责亚马逊云科技的云计算方案和架构咨询。