Veröffentlicht am: Jun 8, 2020

Sie können jetzt die Ergebnisse einer HAQM Redshift-Abfrage in eine externe Tabelle in HAQM S3 entweder im Text- oder im Apache Parquet-Format schreiben. Die externen Tabellenmetadaten werden automatisch aktualisiert und können in AWS Glue, AWS Lake Formation oder Ihrem Hive Metastore-Datenkatalog gespeichert werden. Auf diese Weise können Sie Ihre Daten einfach im Data Lake gemeinsam nutzen und haben sie sofort für die Analyse mit HAQM Redshift Spectrum und anderen AWS-Services wie HAQM Athena, HAQM EMR und HAQM SageMaker verfügbar. HAQM Redshift Spectrum ermöglicht es Ihnen, eine Data Lake-Architektur zu betreiben, um Daten in Ihrem Data Warehouse und Data Lake direkt abzufragen und zusammenzuführen.

Um mit dem Schreiben in externe Tabellen zu beginnen, führen Sie einfach CREATE EXTERNAL TABLE AS SELECT aus, um in eine neue externe Tabelle zu schreiben, oder führen Sie INSERT INTO aus, um Daten in eine bestehende externe Tabelle einzufügen. So können Sie Ihre Datenverarbeitungs-Pipelines vereinfachen und beschleunigen, indem Sie vertraute SQL und eine nahtlose Integration mit Ihren vorhandenen ETL- und BI-Tools nutzen. Mit der Option PARTITIONED BY können Sie die Daten automatisch partitionieren und die Vorteile der Partitionsbereinigung nutzen, um die Abfrageleistung zu verbessern und die Kosten zu minimieren. Beispielsweise können Sie Ihre Marketingdaten in Ihre externe Tabelle schreiben und diese nach Jahr-, Monats- und Tagesspalten partitionieren. Weitere Informationen finden Sie in der HAQM Redshift-Dokumentation zu CREATE EXTERNAL TABLE und INSERT.

Die Funktion zum Schreiben in externe Tabellen von HAQM Redshift wird ab der Redshift-Version 1.0.15582 unterstützt. Weitere Informationen zur Verfügbarkeit von HAQM Redshift finden Sie in der AWS-Regionentabelle.