HAQM Web Services ブログ

Category: HAQM OpenSearch Service

OpenSearch ベクトルエンジンのディスク最適化により、精度を維持しつつコスト削減が可能に

OpenSearch ベクトルエンジンは、OpenSearch 2.17 以降のドメインで、従来の 3 分の 1 のコストでベクトル検索を実行できるようになりました。k-NN (ベクトル) インデックスをディスクモードで実行するように設定し、メモリに制約のある環境に最適化することで、数百ミリ秒単位で応答する低コストで正確なベクトル検索が可能になりました。ディスクモードは、一桁ミリ秒に近いレイテンシーを求めない場合、従来のメモリモードの経済的な代替手段となります。

AWS が生成 AI で E コマースにおけるショッピングアシスタントを強化

AWS 提供のデモの一つである AI ショッピングアシスタント は、お客様固有のニーズに合わせてカスタマイズされた推奨商品を提示するなど、生成 AI がデジタル空間での案内役としてどのように機能するのかを確認していただけます。 小売業者が顧客向けにパーソナライズされたシームレスな体験を提供できるように設計されたこのアシスタントは、顧客がより迅速かつ自信を持って意思決定を行えるようにします。 AI ショッピングアシスタントは、選択肢を最も関連性の高いものだけに絞り込むことで、悩ましい選択の苦労を軽減して購入へと導き、ショッピングをより満足のいく体験に変えます。

HAQM Titan Text Embeddings V2、HAQM OpenSearch Serverless、および HAQM Bedrock Knowledge Bases における バイナリ埋め込みを使用した費用対効果の高い RAG アプリケーションの構築

本日、HAQM Bedrock Knowledge Bases と HAQM OpenSearch Serverless における HAQM Titan Text Embeddings V2 用のバイナリ埋め込みの提供開始を発表できることを嬉しく思います。HAQM Bedrock でのバイナリ埋め込みと OpenSearch Serverless でのバイナリベクトルストアのサポートにより、HAQM Bedrock Knowledge Bases でバイナリ埋め込みとバイナリベクトルストアを使用した Retrieval Augmented Generation (RAG) アプリケーションを構築し、メモリ使用量と全体的なコストを削減することができます。

企業データ×生成 AI ! アクロクエストの DocCollector と HAQM Bedrock で実現する Box 内データ活用

本記事では、アクロクエストテクノロジー社の DocCollector を利用して Box 内のデータを AWS に取り込み、生成 AI アプリケーション開発のためのサービスである HAQM Bedrock を活用した RAG システムを構築する具体的な方法について解説します。

HAQM OpenSearch Service が次世代 OpenSearch UI を発表

HAQM OpenSearch Service は、複数のデータソースにわたる包括的な可観測性を実現する、最新の運用分析機能をリリースしました。これにより、OpenSearch や他の統合されたデータソースから一括でインサイトを得ることができます。このリリースでは、メジャーなユースケースに合わせた体験を提供し、アクセス制御をサポートする OpenSearch Workspaces も導入されました。これにより、ユースケースに応じたプライベートスペースを作成し、コラボレーターだけと共有することが可能です。次世代のユーザーインターフェース(UI)では、Discover 機能が改善され、インタラクティブな分析が簡素化されました。自然言語クエリ生成などの機能を利用して、簡単にデータからインサイトを得ることができます。

OpenSearch 最適化インスタンス (OR1) はインデクシングパフォーマンスとコストを革新

HAQM OpenSearch Service は、アプリケーション監視、ログ分析、オブザーバビリティ、Web サイト検索などのユースケースで、ビジネスデータや運用データのリアルタイム検索、監視、分析を安全に実現にします。

この記事では、2023 年 11 月 29 日に導入された、OpenSearch 最適化インスタンスタイプ OR1 について検討します。

OR1 は HAQM OpenSearch Service のインスタンスタイプで、大量のデータを保存するためのコスト効率の高い方法を提供します。OR1 インスタンスを使用するドメインでは、HAQM Elastic Block Store (HAQM EBS) ボリュームをプライマリストレージとして使用し、データが書き込まれるとすぐに HAQM Simple Storage Service (HAQM S3) に同期的にコピーされます。OR1 インスタンスは、高い耐久性と共に、インデックス作成スループットが向上します。

OR1 の詳細については、紹介ブログ記事をご覧ください。

インデックスに対して書き込みを行っている間は、レプリカを 1 つ維持することをお勧めします。ただし、ロールオーバー後にインデックスに対する書き込みが行われなくなった後は、レプリカを 0 に切り替えることができます。

これは、データが HAQM S3 に永続化されているため、安全に行えます。

ノードの障害と交換が発生した場合、データは HAQM S3 から自動的に復元されますが、修復操作中は一部利用できなくなるため、アクティブに書き込まれていないインデックスの検索に高可用性が必要な場合は、この機能を使用しないでください。

HAQM OpenSearch Service で長期ロギング費用を 4,800% 削減

サーバーログ、サービスログ、アプリケーションログ、クリックストリーム、イベントストリームなどの時間制限のあるデータに HAQM OpenSearch Service を使用する場合、ストレージコストはソリューション全体のコストの主要な要因の 1 つです。昨年、OpenSearch Service では、ログデータを様々な階層に保存できる新機能がリリースされ、データの待機時間、耐久性、可用性のトレードオフが可能になりました。2023 年 10 月、OpenSearch Service は最大 30TB の NVMe SSD ストレージを備えた im4gn データノードのサポートを発表しました。2023 年 11 月、OpenSearch Service は OpenSearch 最適化インスタンスファミリー or1 を導入し、社内ベンチマークで既存インスタンスに比べ最大 30% のパフォーマンス価格比の改善を実現し、HAQM Simple Storage Service (HAQM S3) を使用してイレブンナインの耐久性を提供しました。最後に、2024 年 5 月、OpenSearch Service は HAQM OpenSearch Service と HAQM S3 の zero-ETL 統合 の一般提供を発表しました。これらの新機能は、既存の UltraWarm インスタンス (GB あたりのストレージコストを最大 90% 削減) と、UltraWarm のコールドストレージ オプション (UltraWarm インデックスを分離し、アクセス頻度の低いデータを HAQM S3 に永続的に保存できる) に加わります。