HAQM Web Services ブログ

HAQM Bedrock で利用可能になった新しい HAQM Titan Text Premier モデルを使用して、RAG およびエージェントベースの生成 AI アプリケーションを構築する

5月7日、HAQM Titan ファミリーの新しいモデル HAQM Titan Text Premier が HAQM Bedrock で利用可能になったことをお知らせします。

HAQM Titan Text Lite と Titan Text Express に続く Titan Text Premier は、HAQM Titan ファミリーの最新の大規模言語モデル (LLM) で、HAQM Bedrock 内でのモデルの選択肢がさらに広がります。Bedrock では、以下の Titan Text モデルから選択できるようになりました。

  • Titan Text Premier は、テキストベースのエンタープライズアプリケーション向けの最も高度な Titan LLM です。コンテキストの最大長は 32,000 トークンで、Knowledge Bases for HAQM BedrockAgents for HAQM Bedrock での 検索拡張生成 (RAG) およびエージェントベースのアプリケーションの構築などのエンタープライズユースケース向けに特に最適化されています。すべての Titan LLM と同様に、Titan Text Premier には多言語テキストデータに関するトレーニングが施されていますが、英語のタスクに最も適しています。HAQM Bedrock で 独自のデータを使用して Titan Text Premier をさらにカスタム微調整 (プレビュー) して、ドメイン、組織、ブランドスタイル、ユースケースに固有のアプリケーションを構築できます。この記事の以降のセクションでは、モデルのハイライトとパフォーマンスについて詳しく説明します。
  • Titan Text Express は、自由形式のテキスト生成や会話型チャットなど、広範なタスクに理想的です。このモデルのコンテキストの最大長は 8,000 トークンです。
  • Titan Text Lite は速度が最適化されていて、高度なカスタマイズが可能で、記事の要約やコピーライティングなどのタスク向けに微調整するのに理想的です。このモデルのコンテキストの最大長は 4,000 トークンです。

次に、Titan Text Premier について詳しく説明します。

HAQM Titan Text Premier モデルのハイライト
Titan Text Premier は、高品質の RAG およびエージェントベースのアプリケーション向けに最適化されており、責任ある人工知能 (AI) プラクティスを取り入れながら微調整することでカスタマイズできます。

RAG とエージェントベースのアプリケーション向けの最適化 – Titan Text Premier は、生成 AI アプリケーションの構築における主要コンポーネントの 1 つとして RAG が挙げられたお客様からのフィードバックに応える形で RAG とエージェントベースのアプリケーション向けに特に最適化されています。モデルトレーニングデータには、要約、Q&A、会話チャットなどのタスクの例が含まれており、Knowledge Bases for HAQM Bedrock と Agents for HAQM Bedrock との統合に最適化されています。最適化には、特定のプロンプト形式など、これらの特徴量のニュアンスを処理するようにモデルをトレーニングすることが含まれます。

  • Knowledge Bases for HAQM Bedrock との統合による高品質の RAG – ナレッジベースを使用して、HAQM Bedrock の基盤モデル (FM) を RAG 用の企業データに安全に接続できます。Titan Text Premier とナレッジベースを選択して、企業の独自データに対する質疑応答と要約タスクを実装できるようになりました。
    ナレッジベースでの HAQM Titan Text Premier のサポート
  • Agents for HAQM Bedrock との統合によるタスクの自動化 – Agents for HAQM Bedrock で Titan Text Premier を使用して、複数のさまざまな企業システムとデータソースにわたって複数ステップのタスクを実行できるカスタムエージェントを作成することもできます。エージェントを使用すると、小売注文の管理や保険金請求の処理など、社内外の顧客のタスクを自動化できます。
    Agents for HAQM Bedrock での HAQM Titan Text Premier

既に多くのお客様が、メールなどの非構造化データから要約を作成するインタラクティブな AI アシスタントの実装を検討するために Titan Text Premier を検討しています。また、お客様は、より意味のある製品概要を作成するために、会社のシステムやデータソースから関連情報を抽出するモデルも検討しています。

私の同僚の Brooke Jamieson が作成したデモ動画を紹介します。この動画では、Titan Text Premier をビジネスで活用する方法の例が示されています。

HAQM Titan Text Premier のカスタム微調整 (プレビュー) – HAQM Bedrock 内の独自データを使用して Titan Text Premier を微調整し、独自のタスク固有のラベル付きトレーニングデータセットを提供することでモデルの精度を向上させることができます。Titan Text Premier をカスタマイズすると、モデルをさらに特化して、会社のブランド、スタイル、ボイス、サービスを反映した独自のユーザーエクスペリエンスを作成するできます。

責任を持って構築する – HAQM Titan テ Text Premier には、安全なプラクティス、セキュアなプラクティス、信頼できるプラクティスが組み込まれています。HAQM Titan Text Premier 向けの AWS AI Service Card では、安全性と公平性から正確性と堅牢性まで、責任ある AI の主要なベンチマークにおけるモデルのパフォーマンスが文書化されています。モデルは Guardrails for HAQM Bedrock とも統合するので、アプリケーションの要件や責任ある AI ポリシーに合わせて追加のセーフガードを実装できます。HAQM は、一般に利用可能な HAQM Titan モデルやその出力がサードパーティの著作権を侵害しているという主張に対して HAQM Titan を責任をもって使用するお客様を保護します。

HAQM Titan Text Premier モデルのパフォーマンス
Titan Text Premier は、エンタープライズに関連する幅広いインテリジェンスとユーティリティを提供するように構築されています。次の表は、価格の比較が可能なモデルに対して、指示の順守、読解力、複数ステップの推論などの重要な能力を評価する公開ベンチマークの評価結果を示しています。これらの多様で挑戦的なベンチマークで見られる優れたパフォーマンスは、Titan Text Premier がエンタープライズアプリケーションの幅広いユースケースを処理するために構築されていて、優れたコストパフォーマンスを提供することを示します。以下のすべてのベンチマークでは、高いスコアが優れたスコアです。

能力 ベンチマーク 説明 HAQM Google OpenAI
Titan Text Premier Gemini Pro 1.0 GPT-3.5
全般 MMLU
(論文)
57 科目の質問の表現 70.4%
(5 ショット)
71.8%
(5 ショット)
70.0%
(5 ショット)
指示の順守 IFEval
(論文)
大規模言語モデルの指示準拠の評価 64.6%
(0 ショット)
未公開 未公開
読解力 RACE-H
(論文)
大規模な読解力 89.7%
(5 ショット)
未公開 未公開
推論 HellaSwag
(論文)
常識的な推論 92.6%
(10 ショット)
84.7%
(10 ショット)
85.5%
(10 ショット)
DROP、F1 スコア
(論文)
テキストによる推論 77.9
(3 ショット)
74.1
(可変ショット)
64.1
(3 ショット)
BIG-Bench Hard
(論文)
複数ステップの推論を必要とする挑戦的なタスク 73.7%
(3 ショット CoT)
75.0%
(3 ショット CoT)
未公開
ARC-Challenge
(論文)
常識的な推論 85.8%
(5 ショット)
未公開 85.2%
(25 ショット)

注: ベンチマークでは、さまざまな Few-shot と Zero-shot プロンプティングを使用してモデルのパフォーマンスを評価します。Few-shot プロンプティングでは、特定のタスクを解決する方法の具体的な例をいくつかモデルに提供します (3 ショットの場合は 3 つ、5 ショットの場合は 5 つなど)。これは、例から学習するモデルの能力 (In-Context Learning) を示しています。一方、Zero-shot プロンプティングでは、例を示さずにモデルの既存の知識と一般的な言語理解のみでモデルのタスク実行能力を評価します。

HAQM Titan Text Premier の使用を開始する
HAQM Titan Text Premier へのアクセスを有効にするには、HAQM Bedrock コンソールに移動して、左下のペインで [モデルアクセス] を選択します。[モデルアクセス] 概要ページで、右上隅にある [モデルアクセスを管理] ボタンを選択して、HAQM Titan Text Premier へのアクセスを有効にします。

HAQM Bedrock の [モデルアクセス] ページで [HAQM Titan Text Premier] を選択する

Bedrock コンソールで HAQM Titan Text Premier を使用するには、左側のメニューペインの [プレイグラウンド][テキスト] または [チャット] を選択します。次に、[モデルを選択] を選択し、カテゴリとして [HAQM] を選択し、モデルとして [Titan Text Premier] を選択します。モデルの詳細を確認するためにサンプルをロードすることができます。次のスクリーンショットは、Chain of Thought (CoT) と推論機能を説明する例の 1 つを示しています。

HAQM Bedrock のチャットプレイグラウンドの HAQM Titan Text Premier

[API リクエストを表示] を選択すると、AWS コマンドラインインターフェイス (AWS CLI) と現在のサンプルプロンプトを使用してモデルを呼び出す方法のコード例を取得できます。AWS SDK を使用して HAQM Bedrock と利用可能なモデルにアクセスすることもできます。次の例では、AWS SDK for Python (Boto3) を使用します。

HAQM Titan Text Premier の使用例
このデモでは、HAQM Titan イメージジェネレーターとウォーターマーク検出機能が利用可能になったことを紹介した私の以前の AWS ニュースブログ投稿を要約するよう HAQM Titan Text Premier に指示します。

要約タスクの場合、推奨されるプロンプトテンプレートは次のようになります。

The following is text from a {{Text Category}}:
{{Text}}
Summarize the {{Text Category}} in {{length of summary}}

プロンプティングのベストプラクティスについては、「HAQM Titan Text Prompt Engineering Guidelines」を参照してください。

このテンプレートを今回の例に適合させてプロンプトを定義します。準備として、対象のニュースブログの投稿をテキストファイルとして保存し、post 文字列変数に読み取ります。

prompt = """
The following is text from a AWS News Blog post:

<text>
%s
</text>

Summarize the above AWS News Blog post in a short paragraph.
""" % post

以前の HAQM Titan Text モデルと同様に、HAQM Titan Text Premier は、応答の長さを制御する maxTokenCountstopSequences に加えて、応答のランダムさと多様性を制御する temperaturetopP のインターフェイスパラメータをサポートします。

import boto3
import json

bedrock_runtime = boto3.client(service_name="bedrock-runtime")

body = json.dumps({
    "inputText": prompt,
    "textGenerationConfig":{  
        "maxTokenCount":256,
        "stopSequences":[],
        "temperature":0,
        "topP":0.9
    }
})

次に、InvokeModel API を使用して推論リクエストを送信します。

response = bedrock_runtime.invoke_model(
    body=body,
	modelId="amazon.titan-text-premier-v1:0",
    accept="application/json",
    contentType="application/json"
)

response_body = json.loads(response.get('body').read())
print(response_body.get('results')[0].get('outputText'))

応答を以下に示します。

HAQM Titan イメージジェネレータが HAQM Bedrock で一般的に利用可能になったので、画像の即時カスタマイズなど、新しい画像生成および画像編集機能を使用して、生成 AI アプリケーションを簡単に構築およびスケールできるようになりました。Titan イメージジェネレータのウォーターマーク検出が HAQM Bedrock コンソールで一般的に利用可能になりました。本日は、HAQM Bedrock に新しい DetectGeneratedContent API (プレビュー) も導入します。この API は、このウォーターマークの存在をチェックし、画像が Titan 画像ジェネレーターによって生成されたかどうかを確認するのに役立ちます。

さまざまなプログラミング言語でのその他の例については、「HAQM Bedrock ユーザーガイド」のコード例のセクションを参照してください。

その他リソース:
役立つと思われるその他のリソースを紹介します。

意図したユースケースなど — モデルの意図したユースケース、設計、デプロイ、パフォーマンス最適化のベストプラクティスの詳細については、HAQM Titan Text Premier 用の AWS AI Service Card をチェックしてください。

AWS 生成 AI CDK コンストラクト  — HAQM Titan Text Premier は、AWS Cloud Development Kit (AWS CDK) のオープンソース拡張である AWS Generative AI CDK Constructs によってサポートされており、一般的な生成 AI パターン用の AWS CDK のサンプル実装を提供しています。

HAQM Titan モデル — HAQM Titan モデル全般の詳細については、次の動画をご覧ください。Sherry Marcus博士 (Director of Applied Science for HAQM Bedrock) が、HAQM のビジネス全体における 25 年にわたる AI と機械学習 (ML) のイノベーションの経験が HAQM Titan ファミリーのモデルにどのように組み込まれているかを解説します。

今すぐご利用いただけます
HAQM Titan Text Premier は、現在、AWS 米国東部 (バージニア北部) リージョンでご利用いただけます。HAQM Titan Text Premier のカスタム微調整は、現在、AWS 米国東部 (バージニア北部) リージョンでプレビューをご利用いただけます。今後の更新については、リージョンの完全なリストを参照してください。HAQM Titan ファミリーのモデルの詳細については、HAQM Titan の製品ページを参照してください。.料金の詳細については、HAQM Bedrock の料金ページを参照してください。

今すぐ HAQM Bedrock コンソールで HAQM Titan Text Premier を試して、フィードバックを AWS re:Post for HAQM Bedrock または通常の AWS 担当者に送信し、生成 AI ビルダーコミュニティ (community.aws) にご参加ください。

– Antje

原文はこちらです。