Funzionalità di HAQM Redshift

Offri prezzi e prestazioni senza pari su larga scala con SQL per il tuo data lakehouse

Ottieni prestazioni, scalabilità e sicurezza a prezzi eccezionali

Open all

Le istanze RA3 massimizzano la velocità per carichi di lavoro ad elevate prestazioni che richiedono grandi quantità di capacità di calcolo, pur offrendo la flessibilità di pagare separatamente per le risorse di calcolo e le risorse di archiviazione specificando il numero di istanze necessarie.

Per ridurre la quantità di I/O necessari per elaborare le query, HAQM Redshift impiega archiviazione basata su colonne, compressione dei dati e mappature di zona. Oltre alle codifiche standard del settore quali LZO e Zstandard, HAQM Redshift offre la codifica di compressione dedicata, AZ64, per tipi numerici e data/ora per permettere di risparmiare sull'archiviazione e di ottimizzare le prestazioni delle query.

Supporta utenti simultanei virtualmente illimitati e query simultanee con livelli di servizio consistenti, aggiungendo capacità transitoria in pochi secondi all'aumentare della concorrenza. Scalabilità con un impatto minimo sui costi, poiché ogni cluster guadagna fino a un'ora di crediti di scalabilità concorrente gratuita al giorno. Questi crediti gratuiti soddisfano le esigenze di concorrenza per il 97% dei clienti.

Inizia a scrivere sui database Redshift da altri data warehouse Redshift in pochi clic, abilitando ulteriormente la collaborazione sui dati, la scalabilità flessibile dell'elaborazione per i carichi di lavoro di elaborazione ETL/dati aggiungendo warehouse di diversi tipi e dimensioni in base alle esigenze di prezzo/prestazioni. Sperimenta una maggiore trasparenza dell'utilizzo dell'elaborazione, poiché ogni warehouse viene fatturata per le proprie risorse di calcolo, mantenendo di conseguenza i costi sotto controllo.

Le viste materializzate di HAQM Redshift consentono di ottenere prestazioni di query notevolmente più veloci per carichi di lavoro analitici iterativi o prevedibili come pannelli di controllo e query da strumenti di business intelligence (BI) e processi di elaborazione di dati di estrazione, trasformazione e caricamento (ELT). È possibile utilizzare le viste materializzate per archiviare e gestire i risultati precalcolati di un'istruzione SELECT che fa riferimento a una o più tabelle, tra cui data lake, Zero-ETL e tabelle di condivisione dei dati. Con l'aggiornamento incrementale, HAQM Redshift identifica le modifiche nella tabella o nelle tabelle di base avvenute dopo l'aggiornamento precedente e aggiorna solo i record corrispondenti nella vista materializzata. L'aggiornamento incrementale viene eseguito più rapidamente di un aggiornamento completo e migliora le prestazioni del carico di lavoro.

Fornisci tempi di risposta inferiori al secondo per le query ripetute. Gli strumenti di pannello di controllo, visualizzazione e BI che eseguono query ripetute presentano un incremento notevole delle prestazioni. Quando una query è in esecuzione, HAQM Redshift effettua ricerche nella cache per verificare l'eventuale presenza del risultato memorizzato di una query precedente. Se trova un risultato nella cache e i dati non sono cambiati, tale risultato viene restituito immediatamente invece di rieseguire la query.

Un nuovo potente meccanismo di ordinamento delle tabelle che migliora le prestazioni delle query ripetitive, ordinando automaticamente i dati in base ai filtri delle query in entrata (ad esempio, le vendite in una regione specifica). Questo metodo accelera notevolmente le prestazioni delle scansioni delle tabelle rispetto ai metodi tradizionali.

Espandi le funzionalità di ripristino riducendone i tempi e garantendo la capacità di ripristino automatico senza perdita di dati. Un data warehouse Multi-AZ di HAQM Redshift ottimizza le prestazioni e il valore offrendo alta disponibilità senza dover utilizzare le risorse in standby, elevando la disponibilità al 99,99% SLA.

HAQM Redshift ti consente di configurare le regole del firewall in modo da controllare gli accessi al cluster del data warehouse. HAQM Redshift può essere eseguito all'interno di HAQM Virtual Private Cloud (HAQM VPC) in modo da isolare il cluster del data warehouse in una rete virtuale a sé stante e collegarlo all'infrastruttura IT esistente tramite VPN IPsec con crittografia standard di settore.

Impostando alcuni semplici parametri, puoi configurare HAQM Redshift in modo da applicare il protocollo TLS per proteggere i dati in transito e il protocollo di crittografia AES-256 con accelerazione hardware per i dati a riposo. Se scegli di abilitare la crittografia dei dati a riposo, tutti i dati scritti su disco saranno crittografati, inclusi i backup. HAQM Redshift si occupa della gestione delle chiavi come impostazione predefinita.

L'integrazione con il Centro Identità IAM consente alle organizzazioni di supportare una propagazione affidabile delle identità tra HAQM Redshift, HAQM QuickSight e AWS Lake Formation. Puoi utilizzare l'identità della tua organizzazione per accedere ad HAQM Redshift con un singolo accesso, utilizzando gestori dell'identità digitale (IdP) di terze parti come Microsoft Entra ID, Okta, Ping o OneLogin da QuickSight e dall'editor di query HAQM Redshift e strumenti di BI di terze parti ed editor SQL. Gli amministratori possono utilizzare utenti e gruppi IdP di terze parti per gestire l'accesso granulare ai dati attraverso i servizi e analizzare l'accesso a livello di utente in AWS CloudTrail. Con una propagazione affidabile dell'identità, l'identità di un utente viene trasmessa senza problemi tra QuickSight, HAQM Redshift e Lake Formation, riducendo i tempi di acquisizione delle informazioni e consentendo un'esperienza di analisi senza intoppi.

I controlli granulari di sicurezza a livello di righe e colonne garantiscono che gli utenti possono visualizzare solamente i dati per i quali hanno i permessi di accesso. HAQM Redshift è integrato con Lake Formation, assicurando che i controlli agli accessi a livello di colonna in Lake Formation vengano applicati anche alle query di HAQM Redshift sui dati all'interno del data lake. La condivisione dei dati di HAQM Redshift supporta il controllo degli accessi centralizzato con Lake Formation per semplificare la governance dei dati condivisi da HAQM Redshift. Lake Formation è un servizio che facilita l'impostazione di data lake sicuri per gestire centralmente l'accesso granulare ai dati per tutti i servizi a consumo e per applicare i controlli a livello di righe e colonne. Con il mascheramento dei dati dinamico, proteggi i tuoi dati sensibili limitando la quantità di dati identificabili visibili agli utenti. Definisci più livelli di autorizzazioni su questi campi in modo che utenti e gruppi diversi possano avere diversi livelli di accesso ai dati senza dover creare più copie dei dati, il tutto tramite la familiare interfaccia SQL di HAQM Redshift.

Sblocca le informazioni con SQL sui dati unificati nella lakehouse

Open all

Analizza tutti i tuoi dati unificati utilizzando SQL con l'integrazione di HAQM Redshift con SageMaker Lakehouse. Interroga i dati di HAQM Simple Storage Service (HAQM S3) in formati aperti, eliminando lo spostamento dei dati tra lake e warehouse. Apri i tuoi dati HAQM Redshift in SageMaker Lakehouse per consentire l'accesso agli strumenti di analisi AWS e Apache Iceberg, supportando l'analisi completa dei dati e il machine learning (ML).

HAQM Redshift supporta le query di sola lettura utilizzando il noto ANSI SQL sui formati di tabella Apache Iceberg, Apache Hudi e Delta Lake, nonché le query sui formati di file aperti, tra cui Apache Parquet, ORC, Avro, JSON e CSV, direttamente in HAQM S3. Apache Iceberg è un esempio di formato di tabella open source che fornisce coerenza transazionale e una migliore organizzazione dei data lake attraverso la sua struttura a tabelle. HAQM Redshift Spectrum consente di leggere tabelle e dati in formati aperti come Parquet nel tuo data lake, conservando fino a exabyte di dati strutturati, semistrutturati e non strutturati in HAQM S3. Puoi anche esportare i dati nel tuo data lake utilizzando il comando UNLOAD di HAQM Redshift, inclusa l'opzione per l'esportazione in Parquet. Esportare i dati da HAQM Redshift nel tuo data lake ti permette di analizzarli ulteriormente tramite altri servizi AWS quali HAQM Athena, HAQM EMR e SageMaker.

Utilizza SQL per rendere i tuoi dati HAQM Redshift e il tuo data lake più accessibili agli analisti di dati, ai data engineer e ad altri utenti SQL con un workbench di analisi basato sul Web per l'esplorazione e l'analisi dei dati. Query Editor ti consente di visualizzare i risultati delle query con un solo passaggio, creare schemi e tabelle, caricare i dati visivamente e sfogliare gli oggetti del database. Offre anche un editor intuitivo per creare e condividere query SQL, analisi, visualizzazioni e annotazioni, e condividerle in modo sicuro con il tuo team.

Usa l'editor SQL integrato basato su HAQM Redshift in SageMaker Unified Studio, un unico ambiente di sviluppo di dati e intelligenza artificiale, per interrogare i dati archiviati in data lake, data warehouse, database e applicazioni.

Accelera il processo decisionale con analisi quasi in tempo reale

Open all

L'integrazione senza codice tra Aurora, HAQM Relational Database Service (HAQM RDS), HAQM DynamoDB, applicazioni aziendali e HAQM Redshift consente analisi immediate e ML su petabyte di dati tra database e applicazioni. Ad esempio, per i dati scritti su sorgenti di applicazioni operative, transazionali o aziendali, le integrazioni Zero-ETL di Aurora con HAQM Redshift rendono i dati disponibili in HAQM Redshift, riducendo al minimo la necessità di creare e mantenere complesse pipeline di dati ETL.

Semplifica e automatizza l'importazione dei dati da HAQM S3 riducendo i tempi e gli sforzi necessari per creare soluzioni personalizzate o gestire servizi di terze parti. Con questa funzionalità, HAQM Redshift elimina la necessità di eseguire manualmente e ripetutamente le procedure di copia, automatizzando l'importazione dei file e gestendo le fasi di caricamento continuo dei dati dietro le quinte. Il supporto per la copia automatica permette agli utenti line-of-business e agli analisti dei dati senza conoscenze di ingegneria dei dati di creare regole di importazione e configurare la posizione dei dati che vogliono caricare da HAQM S3.

Utilizza SQL per connetterti e acquisire direttamente dati dai flussi di dati HAQM Kinesis e da Streaming gestito da HAQM per Apache Kafka (HAQM MSK). HAQM Redshift Streaming Ingestion permette anche di creare e gestire facilmente le pipeline a valle consentendo di creare viste materializzate direttamente sui flussi. Le viste materializzate possono includere anche le trasformazioni SQL come parte della pipeline ELT. Puoi aggiornare manualmente le viste materializzate definite per eseguire query sui dati di streaming più recenti.

Esegui query relative ai dati in tempo reale su una o più istanze HAQM RDS, compresi i database HAQM Aurora PostgreSQL-Compatible Edition, HAQM Relational Database (HAQM RDS) for MySQL e HAQM Aurora MySQL-Compatible Edition, per ottenere una visibilità immediata su tutte le operazioni aziendali senza dover spostare i dati.

Ottieni semplici analisi SQL senza gestire l'infrastruttura

Open all

Esegui analisi in pochi secondi e dimensiona senza la necessità di configurare e gestire l'infrastruttura di data warehouse. La tecnologia di dimensionamento e ottimizzazione basata sull'IA (disponibile in anteprima) consente ad HAQM Redshift serverless di fornire e dimensionare automaticamente e proattivamente la capacità del data warehouse, offrendo prestazioni rapide anche per i carichi di lavoro più impegnativi. Il sistema utilizza tecniche di IA per apprendere i modelli di carico di lavoro dei clienti in dimensioni principali, come query simultanee, complessità delle query, afflusso di volumi di dati e modelli ETL. Inoltre, adatta continuamente le risorse durante il giorno e applica ottimizzazioni delle prestazioni su misura. Puoi impostare il target di performance che desideri, e il data warehouse si dimensiona automaticamente per mantenere una performance consistente.

Algoritmi sofisticati prevedono e classificano le query in entrata in base ai tempi di esecuzione e ai requisiti di risorse per gestire dinamicamente le prestazioni e la concorrenza, il tutto permettendo di dare priorità ai carichi di lavoro critici per l'azienda. L’accelerazione di query brevi (SQA) invia query brevi dalle applicazioni quali pannelli di controllo per una coda rapida, così da permetterti di elaborare tali query immediatamente piuttosto che attendere che le query di maggiori dimensioni vengano completate. La gestione automatica dei carichi di lavoro (WLM) utilizza ML per gestire in modo dinamico memoria e concorrenza, permettendoti di massimizzare il throughput delle query. Inoltre, ora puoi impostare la priorità delle tue query più importanti, anche quando ne vengono inviate centinaia. HAQM Redshift Advisor formula raccomandazioni quando è necessaria un'azione esplicita dell'utente per potenziare ulteriormente le prestazioni di HAQM Redshift. Per i carichi di lavoro dinamici, dove i modelli di query non sono prevedibili, le viste materializzate automatiche migliorano il throughput delle query, diminuiscono la loro latenza, riducono il tempo di esecuzione tramite gli aggiornamenti automatici, la riscrittura automatica delle query, l'aggiornamento incrementale e il monitoraggio continuo dei cluster di HAQM Redshift. L'ottimizzazione automatica delle tabelle seleziona le chiavi di ordinamento e distribuzione per ottimizzare le prestazioni per il carico di lavoro del cluster. Se HAQM Redshift stabilisce che l'applicazione di una chiave migliorerà le prestazioni del cluster, le tabelle verranno automaticamente modificate senza richiedere l'intervento dell'amministratore. Le funzionalità aggiuntive eliminazione vacuum automatica, ordinamento automatico delle tabelle e analisi automatica eliminano la necessità di manutenzione manuale e di messa a punto dei cluster HAQM Redshift per ottenere le migliori prestazioni per i nuovi cluster e i carichi di lavoro di produzione.

Utilizza un'API semplice per l'interazione con HAQM Redshift: questo servizio consente di accedere senza problemi a tutti i tipi di applicazioni tradizionali, native del cloud e containerizzate basate su servizi web serverless e ad applicazioni basate sugli eventi. L'API di dati di HAQM Redshift semplifica l'accesso ai dati, la loro acquisizione e l'uscita dai linguaggi di programmazione e dalle piattaforme supportate da AWS SDK come Python, Go, Java, Node.js, PHP, Ruby e C++. L'API di dati permette di non dover configurare i driver e gestire le connessioni del database. Invece, è possibile eseguire comandi SQL su un cluster HAQM Redshift richiamando un endpoint API sicuro fornito dall'API di dati. L'API di dati si occupa della gestione delle connessioni al database e del caricamento dei dati. L'API di dati è asincrona, così puoi recuperare i risultati in un secondo momento. I risultati delle query vengono archiviati per 24 ore.

Esegui query all'interno della console o connetti strumenti client SQL, librerie o strumenti di data science tra cui QuickSight, Tableau, Microsoft Power BI, Alteryx, Querybook, Jupyter Notebook, Informatica, dbt, MicroStrategy e Looker.

Contestualizza le applicazioni e aumenta la produttività degli utenti con l'IA generativa

Open all

Usa un linguaggio semplice per scrivere query in Editor di query HAQM Redshift che generano in modo sicuro raccomandazioni accurate di codice SQL nell'ambito delle autorizzazioni di accesso ai dati.

HAQM Redshift si integra perfettamente con HAQM Bedrock, abilitando funzionalità di IA generativa diretta tramite comandi SQL standard. Questa integrazione consente ai team di dati di utilizzare modelli di fondazione come Anthropic Claude e HAQM Titan per attività come l'analisi del testo, la traduzione e il rilevamento delle emozioni senza ulteriore complessità dell'infrastruttura. Gli utenti possono richiamare senza problemi i modelli di intelligenza artificiale all'interno dei flussi di lavoro di analisi dei dati esistenti, trasformando il modo in cui le informazioni vengono estratte dai dati aziendali.

HAQM Redshift ML consente ad analisti di dati, data scientist, professionisti di BI e sviluppatori di database di creare, addestrare e implementare più facilmente modelli di SageMaker utilizzando SQL. Con HAQM Redshift ML, puoi utilizzare le istruzioni SQL per creare e addestrare i modelli di SageMaker sui tuoi dati in HAQM Redshift e quindi utilizzare tali modelli per generare stime come il rilevamento del tasso di abbandono, le previsioni finanziarie, la personalizzazione e il punteggio di rischio direttamente nelle loro query e nei tuoi report. Inserisci modelli linguistici di grandi dimensioni in HAQM Redshift per attività avanzate di elaborazione del linguaggio naturale come il riepilogo del testo, l'estrazione delle entità e l'analisi delle emozioni, per ottenere informazioni più approfondite dai tuoi dati utilizzando SQL.