HAQM Web Services ブログ

DeepSeek-R1 モデルが AWS で使用可能に

2024 年 12 月 2 日から 6 日の AWS re:Invent で、HAQM の CEO であるアンディー ジャシーは、HAQM が社内で約 1,000 の生成 AI アプリケーションを開発した経験から得た有益な教訓を共有しました。ジャシーは、この大規模な AI デプロイから引き出した 3 つの重要な見解を示しました。これらの見解が HAQM のエンタープライズ AI 実装へのアプローチを形作りました。

1 つ目は、生成 AI アプリケーションをスケールするにつれて、コンピューティングコストが非常に重要になるということです。人々は、より優れた料金パフォーマンスを強く望んでいます。2 つ目は、本当に優れた生成 AI アプリケーションを構築するのは、実際にはかなり難しいということです。3 つ目は、やりたいことを選ぶ自由をビルダーに与えたときに使用されるモデルが多様であるということです。これは驚くことではありません。なぜなら、私たちは同じ教訓を何度も何度も学んでいるからです。それは、世界を支配するツールは 1 つだけではないということです。

アンディーが強調したように、HAQM が提供する幅広く奥深いモデルにより、お客様は独自のニーズにとって最適な機能を正確に選択できます。AWS は、お客様のニーズと技術の進歩の両方を注意深くモニタリングすることで、厳選されたモデルのセレクションを定期的に拡大し、業界で定評のあるモデルに加えて、有望な新しいモデルも含めるようにしています。この高性能で差別化されたモデルオファリングのこの継続的な拡大は、お客様が AI イノベーションの最前線に留まるのに役立ちます。

これが中国の AI スタートアップである DeepSeek につながります。DeepSeek は 2024 年 12 月に DeepSeek-V3 をリリースし、その後、2025 年 1 月 20 日に DeepSeek-R1、6,710 億のパラメータを備えた DeepSeek-R1-Zero、および 15 億~700 億のパラメータを備えた DeepSeek-R1-Distill モデルをリリースしました。同社は 2025 年 1 月 27 日に、ビジョンベースの Janus-Pro-7B モデルを追加しました。これらのモデルは公開されており、同等のモデルよりも 90~95% 手頃な料金でコスト効率が高いと言われています。DeepSeek によると、同社のモデルは、強化学習などの革新的なトレーニング手法を通じて実現された推論機能に強みを持っています。

1 月 30 日より、HAQM BedrockHAQM SageMaker AI で DeepSeek-R1 モデルをデプロイできるようになりました。HAQM Bedrock は、API を通じて事前トレーニング済みの基盤モデルを迅速に統合したいチームに最適です。HAQM SageMaker AI は、高度なカスタマイズ、トレーニング、デプロイと、基盤となるインフラストラクチャへのアクセスを希望する組織に最適です。さらに、AWS TrainiumAWS Inferentia を使用して、HAQM Elastic Compute Cloud (HAQM EC2) または HAQM SageMaker AI を介して DeepSeek-R1-Distill モデルをコスト効率よくデプロイすることもできます。

AWS を利用して、インフラストラクチャ投資を最小限に抑えながら、この強力でコスト効率の高い DeepSeek-R1 モデルを使用することで、生成 AI のアイデアを構築および実験し、責任をもってスケールできます。また、セキュリティのために独自に設計された AWS のサービス上に構築することで、自信をもって生成 AI イノベーションを推進できます。HAQM Bedrock と HAQM SageMaker AI の両方のお客様が使用できる生成 AI アプリケーション用に保護レイヤーを追加するために、DeepSeek-R1 モデルのデプロイを HAQM Bedrock ガードレールと統合することを強くお勧めします。

1 月 30 日、DeepSeek-R1 モデルを AWS にデプロイする方法はいくつかあります: 1) HAQM Bedrock Marketplace (DeepSeek-R1 モデル)2) HAQM SageMaker JumpStart (DeepSeek-R1 モデル)3) HAQM Bedrock Custom Model Import (DeepSeek-R1-Distill モデル)4) HAQM EC2 Trn1 インスタンス (DeepSeek-R1-Distill モデル)

AWS で DeepSeek-R1 モデルの使用を開始するためのさまざまな方法をご紹介します。初めての AI アプリケーションを構築する場合でも、既存のソリューションをスケールする場合でも、これらの方法はチームの専門知識と要件に基づいた柔軟な開始点を提供します。

1.HAQM Bedrock Marketplace の DeepSeek-R1 モデル
HAQM Bedrock Marketplace は、HAQM Bedrock の業界をリードするモデルの現在のセレクションに加えて、100 を超える人気、新興、および専門的な FM を提供しています。単一のカタログでモデルを簡単に見つけ、モデルをサブスクライブしてから、マネージドエンドポイントにモデルをデプロイできます。

HAQM Bedrock Marketplace の DeepSeek-R1 モデルにアクセスするには、HAQM Bedrock コンソールに移動し、[基盤モデル] セクションの [モデルカタログ] を選択します。モデルプロバイダーで検索またはフィルタリングすることで、DeepSeek を迅速に見つけることができます。

モデルの機能を含むモデルの詳細ページや実装ガイドラインを確認した後、エンドポイント名を指定し、インスタンスの数を選択して、インスタンスタイプを選択することで、モデルを直接デプロイできます。

また、VPC ネットワーキング、サービスロールの許可、暗号化の設定など、DeepSeek-R1 モデルのセキュリティとインフラストラクチャの設定をカスタマイズできるようにする高度なオプションを設定することもできます。本番デプロイの場合、組織のセキュリティとコンプライアンスの要件に合わせてこれらの設定を確認する必要があります。

HAQM Bedrock ガードレールを使用すると、ユーザー入力とモデル出力を個別に評価できます。生成 AI アプリケーションで望ましくない有害なコンテンツをフィルタリングすることで、定義した一連のポリシーを使用してユーザーと DeepSeek-R1 間のインタラクションを制御できます。HAQM Bedrock Marketplace の DeepSeek-R1 モデルは、Bedrock の ApplyGuardrail API でのみ使用でき、HAQM Bedrock の外部で使用可能なカスタム FM とサードパーティー FM のユーザー入力とモデル応答を評価できます。詳細については、「HAQM Bedrock Guardrails を使用したモデルに依存しない安全対策を実装する」をお読みください。

HAQM Bedrock ガードレールは、HAQM Bedrock エージェントHAQM Bedrock ナレッジベースなどの他の Bedrock ツールと統合して、責任ある AI ポリシーに整合した、より安全でセキュアな生成 AI アプリケーションを構築することもできます。詳細については、AWS の責任ある AI ページにアクセスしてください。

HAQM Bedrock Marketplace で DeepSeek-R1 モデルをデプロイする方法については、このステップバイステップガイドをご覧ください。詳細については、「Deploy models in HAQM Bedrock Marketplace」にアクセスしてください。

2.HAQM SageMaker JumpStart の DeepSeek-R1 モデル
HAQM SageMaker JumpStart は、FM、組み込みアルゴリズム、および数回クリックするだけでデプロイできる事前構築済みの機械学習 (ML) ソリューションを備えた ML ハブです。SageMaker JumpStart で DeepSeek-R1 をデプロイするには、SageMaker Unified StudioSageMaker StudioSageMaker AI コンソール で DeepSeek-R1 モデルを見つけるか、または SageMaker Python SDK を通じてプログラムを使用して見つけることができます。

HAQM SageMaker AI コンソールで、SageMaker Unified Studio または SageMaker Studio を開きます。SageMaker Studio の場合は、[JumpStart] を選択し、[すべてのパブリックモデル] ページで「DeepSeek-R1」を検索します。

モデルを選択し、デプロイを選択して、デフォルト設定でエンドポイントを作成できます。エンドポイントが [InService] になると、そのエンドポイントにリクエストを送信して推論を行うことができます。

HAQM SageMaker AI の機能 (HAQM SageMaker PipelinesHAQM SageMaker Debugger、コンテナログなど) を使用して、モデルのパフォーマンスと ML オペレーションのコントロールを導き出すことができます。モデルは AWS の安全な環境にデプロイされ、仮想プライベートクラウド (VPC) の制御下にあるため、データセキュリティのサポートに役立ちます。

Bedrock Marketpalce と同様に、SageMaker JumpStart の ApplyGuardrail API を使用して、生成 AI アプリケーション用のセーフガードを DeepSeek-R1 モデルからデカップリングできます。FM を呼び出さずにガードレールを使用できるようになったため、使用するモデルにかかわらず、標準化され、徹底的にテストされたエンタープライズセーフガードをアプリケーションフローにさらに統合できるようになりました。

HAQM SageMaker JumpStart で DeepSeek-R1 をデプロイする方法については、このステップバイステップガイドをご覧ください。詳細については、「Discover SageMaker JumpStart models in SageMaker Unified Studio」または「Deploy SageMaker JumpStart models in SageMaker Studio」にアクセスしてください。

3.HAQM Bedrock カスタムモデルインポートを使用した DeepSeek-R1-Distill モデル
HAQM Bedrock カスタムモデルインポートでは、基盤となるインフラストラクチャを管理することなく、単一のサーバーレス統合 API を通じて、カスタマイズされたモデルをインポートして既存の FM とともに使用できます。HAQM Bedrock カスタムモデルインポートを使用すると、15 億~700 億のパラメータを含む DeepSeek-R1-Distill Llama モデルをインポートできます。HAQM Bedrock モデル蒸留に関する私のブログ記事でご紹介したとおり、蒸留プロセスでは、6,710 億のパラメータを持つ大規模な DeepSeek-R1 モデルを教師モデルとして使用して、その動作と推論パターンを模倣するように、より小さく効率的なモデルをトレーニングします。

これらの公開モデルを HAQM Simple Storage Service (HAQM S3) バケットまたは HAQM SageMaker Model Registry に保存した後、HAQM Bedrock コンソール内で [基盤モデル][インポートされたモデル] に移動し、HAQM Bedrock を通じてフルマネージドサーバーレス環境にインポートしてデプロイします。このサーバーレスアプローチは、エンタープライズグレードのセキュリティとスケーラビリティを提供しながら、インフラストラクチャ管理の必要性をなくします。

HAQM Bedrock カスタムモデルインポートを使用して DeepSeek-R1 モデルをデプロイする方法については、このステップバイステップガイドをご覧ください。詳細については、「Import a customized model into HAQM Bedrock」にアクセスしてください。

4.AWS Trainium と AWS Inferentia を使用した DeepSeek-R1-Distill モデル
AWS Deep Learning AMI (DLAMI) は、小規模な CPU のみのインスタンスから最新の高性能マルチ GPU インスタンスまで、さまざまな HAQM EC2 インスタンスで深層学習に使用できるカスタマイズされたマシンイメージを提供します。DeepSeek-R1-Distill モデルを AWS Trainuim1 または AWS Inferentia2 インスタンスにデプロイして、極めて高いコストパフォーマンスを実現できます。

使用を開始するには、HAQM EC2 コンソールに移動し、Deep Learning AMI Neuron (Ubuntu 22.04) と呼ばれる Neuron Multi Framework DLAMI を使用して trn1.32xlarge EC2 インスタンスを起動します。

起動した EC2 インスタンスに接続したら、大規模言語モデル (LLM) を提供するオープンソースツールである vLLM をインストールし、Hugging Face から DeepSeek-R1-Distill モデルをダウンロードします。vLLM を使用してモデルをデプロイし、モデルサーバーを呼び出すことができます。

詳細については、AWS Inferentia および Trainium に DeepSeek-R1-Distill Llama モデルをデプロイする方法に関するこのステップバイステップガイドをご覧ください。

Hugging Face で DeepSeek-R1-Distill-Llama-8B または deepseek-ai/DeepSeek-R1-Distill-Llama-70B モデルカードにアクセスすることもできます。[デプロイ] を選択し、次に [HAQM SageMaker] を選択します。[AWS Inferentia および Trainium] タブから、DeepSeek-R1-Distill Llama モデルをデプロイするためのサンプルコードをコピーします。

DeepSeek-R1 のリリース以降、HAQM EC2 および HAQM Elastic Kubernetes Service (HAQM EKS) へのデプロイに関するさまざまなガイドが公開されています。確認すべき追加資料をいくつか次に示します:

知っておくべきこと
知っておくべき重要な事項をいくつか次に示します。

  • 料金 – DeepSeek-R1 などの公開モデルの場合、HAQM Bedrock Markeplace、HAQM SageMaker JumpStart、および HAQM EC2 のために選択した推論インスタンス時間に基づいて、インフラストラクチャ料金のみが課金されます。Bedrock カスタムモデルのインポートの場合、アクティブなカスタムモデルのコピー数に基づいて、モデル推論についてのみ、5 分単位で課金され。詳細については、HAQM Bedrock の料金HAQM SageMaker AI の料金、および HAQM EC2 の料金のページをご覧ください。
  • データセキュリティ – HAQM Bedrock と HAQM SageMaker のエンタープライズグレードのセキュリティ機能は、データとアプリケーションを安全かつプライベートにするのに役立ちます。これは、データがモデルプロバイダーと共有されず、モデルの改善にも使用されないことを意味します。これは、HAQM Bedrock と HAQM SageMaker の DeepSeek-R1 モデルなど、すべてのモデル (独自モデルおよび公開モデル) に適用されます。詳細については、「HAQM Bedrock のセキュリティとプライバシー」と「Security in HAQM SageMaker AI」にアクセスしてください。

今すぐご利用いただけます
DeepSeek-R1 は現在、HAQM Bedrock Marketplace および HAQM SageMaker JumpStart で一般提供されています。HAQM Bedrock カスタムモデルインポートと、AWS Trainum および Inferentia チップを搭載した HAQM EC2 インスタンスを使用して、DeepSeek-R1-Distill モデルを使用することもできます。

HAQM Bedrock コンソールHAQM SageMaker AI コンソールHAQM EC2 コンソール で DeepSeek-R1 モデルを今すぐお試しいただき、AWS re:Post for HAQM Bedrock および AWS re:Post for SageMaker AI に、または通常の AWS サポートの連絡先を通じて、フィードバックをお寄せください。

Channy

原文はこちらです。