HAQM Web Services ブログ
Tag: 生成AIソリューション開発を始める
株式会社メタバーズ様の AWS 生成 AI 事例 「メタバース空間上の AI ボットサービスで HAQM Bedrock を活用して生成 AI モデルの対応数増加にかかる開発工数を削減」のご紹介
本ブログは 株式会社メタバーズ様と HAQM Web Services Japan 合同会社が共同で執筆い […]
AWS Summit Japan 2024 – インダストリー Village /鉄道ブース開催報告ブログ(後編)
2024年6月20日、21日の二日間に開催された AWS Summit Japan では、 AWS Villa […]
HAQM Bedrock と HAQM FSx for NetApp ONTAP を使用して AWS で RAG ベースの生成 AI アプリケーションを構築する
このブログでは、HAQM Bedrock と HAQM FSx for NetApp ONTAP を使用して、企業固有の非構造化ユーザーファイルデータを簡単、高速、かつ安全な方法で HAQM Bedrock に取り込み、AWS 上の生成 AI アプリケーションに RAG エクスペリエンスを提供するソリューションを紹介します。
HAQM Bedrock で利用可能になった Meta からの Llama 3.2 モデルの紹介: 新世代のマルチモーダルビジョンモデルと軽量モデル
7 月に、AWS は Llama 3.1 モデルが HAQM Bedrock で利用可能になったことをお知 […]
AI21 Labs の Jamba 1.5 ファミリーのモデルが HAQM Bedrock で利用可能に
9 月 23 日、AI21 Labs のパワフルな新しい Jamba 1.5 ファミリーの大規模言語モデル ( […]
生成 AI ワークロードのインシデント対応方法論
AWS カスタマーインシデント対応チーム (CIRT) は、生成 AI ベースのアプリケーションに関連するセキュリティインシデントの調査に使用できる方法論を開発しました。生成 AI ワークロードに関連するセキュリティイベントに対応するには、引き続き AWS セキュリティインシデント対応ガイドに記載されているガイダンスと原則に従う必要があります。生成 AI ワークロードでは、いくつかの追加要素も考慮する必要があるため、このブログ投稿で詳しく説明します。
HAQM Connect で簡単に実現する、生成 AI を活かしたより良いカスタマーエクスペリエンス
カスタマーエクスペリエンスの領域における生成 AI の可能性は魅力的です。一方カスタマーサービスに導入する際、ハルシネーションやバイアス(偏見)などの課題・懸念もあります。この記事では HAQM Connect によって、独自モデルのトレーニングなしで生成 AI を活用したり、ハルシネーションやバイアスの少ない応答を得る方法を紹介します。
2024 年 9 月の AWS Black Belt オンラインセミナー資料及び動画公開のご案内
2024 年 9 月に公開された AWS Black Belt オンラインセミナーの資料及び動画についてご案内させて頂きます。
動画はオンデマンドでご視聴いただけます。
【開催報告 & 資料公開】RAG の困りごとは今日で一気に解決! AWS 生成 AI Dive Deep
2024年9月19日に、RAG に関する悩みを持っている方を対象とした AWS オンラインセミナー「RAG の困りごとは今日で一気に解決! AWS 生成 AI Dive Deep」が開催され、実用的な情報盛りだくさんの 3 つのセッションが実施されました。セミナーの見どころとしては、以下のとおりです。いずれかにピピっと来たら、ぜひこの記事を読み進めてください。
– RAG の概要ではなく、実践的なテクニックや開発の進め方を知ることができる
– RAG でよくある課題とその解決策を具体的に知ることができる
– RAG に欠かせない AWS サービスとその使い分けを知ることができる
HAQM Bedrock Agents と HAQM CloudWatch Logs を使用した、生成 AI によるクラウド運用ワークフローの実現
このブログ記事では、AWS のクラウド運用シナリオにおいて、アプリケーションログファイルで観察されたエラーに基づいて問題を分類し、その後解決するために、HAQM Bedrock エージェントと Bedrock の FM を使用した 生成 AI の使用例を紹介します。
我々のソリューションでは、HAQM Bedrock エージェントは基盤モデル (FM) の推論の性能を使用して、CloudWatch Logs に公開されたアプリケーションログについてのエラー解決を要求するユーザー指示を複数のステップに分解します。開発者/アナリストが提供した自然言語の指示を使用してオーケストレーション計画を作成し、その後、関連する API を呼び出し、HAQM Bedrock Knowledge Base にアクセスすることで計画を実行します。これには、大規模言語モデル (LLM) によって生成された応答を補強するために、ベクトルデータストア (HAQM OpenSearch Serverless) から情報を引き出す処理が含まれます。