ストリーミングデータを簡単にキャプチャ、変換、およびロードします。数回クリックするだけで、配信ストリームを作成し、送信先を選択して、リアルタイムデータのストリーミングを開始できます。
継続的な管理なしで、コンピューティング、メモリ、およびネットワークリソースを自動的にプロビジョニングおよびスケールします。
生のストリーミングデータを Apache Parquet などの形式に変換し、ストリーミングデータを動的に分割します。独自の処理パイプラインを構築する必要はありません。
HAQM Managed Streaming for Kafka (MSK) のトピック、Kinesis Data Streams のストリームなどのデータストリームのソースを選択するか、または Firehose Direct PUT API を使用してデータを書き込みます。HAQM Data Firehose は 20 以上の AWS サービスに統合するため、Databases (プレビュー)、HAQM CloudWatch Logs、AWS WAF ウェブ ACL ログ、AWS Network Firewall ログ、HAQM SNS、AWS IoT などのソースからストリームを設定できます。
Parquet や ORC などの形式へのデータストリームの変換、データの解凍、独自の AWS Lambda 関数を使用したカスタムデータ変換の実行、または別の場所に配信することを目的とした、属性に基づく入力レコードの動的パーティショニングのいずれかを指定します。
HAQM S3、HAQM OpenSearch Service、HAQM Redshift、Splunk、Snowflake、Apache Iceberg Tables、HAQM S3 Tables (プレビュー) やカスタム HTTP エンドポイントなど、ストリームの送信先を選択します。
HAQM Data Firehose の詳細については、HAQM Data Firehose のドキュメントをご覧ください。
データを HAQM S3 にストリーミングし、分析に必要な形式にデータを変換します。処理パイプラインを構築する必要はありません。
サポートされている Security Information and Event Management (SIEM) ツールを使用して、ネットワークセキュリティをリアルタイムでモニタリングし、潜在的な脅威が発生したときにアラートを作成します。
機械学習 (ML) モデルを使用してデータストリームを強化し、データを分析して、ストリームが送信先に移動する際に推論エンドポイントを予測します。